JP2015012301A - 携帯電話機、携帯端末、音声操作プログラムおよび音声操作方法 - Google Patents
携帯電話機、携帯端末、音声操作プログラムおよび音声操作方法 Download PDFInfo
- Publication number
- JP2015012301A JP2015012301A JP2013133646A JP2013133646A JP2015012301A JP 2015012301 A JP2015012301 A JP 2015012301A JP 2013133646 A JP2013133646 A JP 2013133646A JP 2013133646 A JP2013133646 A JP 2013133646A JP 2015012301 A JP2015012301 A JP 2015012301A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- proximity
- function
- voice
- screen
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/26—Devices for calling a subscriber
- H04M1/27—Devices whereby a plurality of signals may be stored simultaneously
- H04M1/271—Devices whereby a plurality of signals may be stored simultaneously controlled by voice recognition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/66—Substation equipment, e.g. for use by subscribers with means for preventing unauthorised or fraudulent calling
- H04M1/667—Preventing unauthorised calls from a telephone set
- H04M1/67—Preventing unauthorised calls from a telephone set by electronic means
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2250/00—Details of telephonic subscriber devices
- H04M2250/12—Details of telephonic subscriber devices including a sensor for measuring a physical value, e.g. temperature or motion
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2250/00—Details of telephonic subscriber devices
- H04M2250/74—Details of telephonic subscriber devices with voice recognition means
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Computer Security & Cryptography (AREA)
- Human Computer Interaction (AREA)
- Telephone Function (AREA)
Abstract
【課題】発呼を指示すると発呼することが出来、音声認識機能による誤動作を軽減させることが出来る携帯電話機、音声操作プログラムおよび音声操作方法を提供する。【解決手段】携帯電話機10のハウジング12には、ディスプレイ14および近接センサ24などが設けられている。たとえば、所定画面としてロック画面が表示されている状態でユーザが携帯電話機10を自身の顔に近づけると顔の近接が検出され、音声認識機能が実行される。この状態で、登録されているアドレスデータを指定し、かつ発呼を指示する音声が入力されると、実行する機能として電話機能が特定され、認識結果から任意のアドレスデータが選択される。そして、そのアドレスデータに含まれる電話番号に基づいて、発呼処理が実行される。【選択図】図1
Description
この発明は、携帯電話機、携帯端末、音声操作プログラムおよび音声操作方法に関し、特に音声を認識する携帯電話機、携帯端末、音声操作プログラムおよび音声操作方法に関する。
背景技術の一例が特許文献1に開示されている。特許文献1の電話機では、操作者がハンドセットを口の近くに持っていきハンドセット内に設置された近接スイッチによって近接が検出されると、音声を認識する認識モードが実行される。このとき、予め登録した音声と類似する音声が入力されれば、登録された音声と対応付けられている電話番号に基づいてダイヤル信号が送出される。つまり、音声認識による自動ダイヤリング操作が行われる。
特公平6-18395[H04M 1/27, G10L 3/00]
ところが、特許文献1の技術が携帯電話機に適用された場合、携帯電話機をカバンの中に入れた状態では、近接スイッチが誤動作して音声認識モードが実行されてしまう場合がある。この状態では、操作者の意図に反して自動ダイヤリング操作が行われてしまう可能性がある。
それゆえに、この発明の主たる目的は、新規な、携帯電話機、携帯端末、音声操作プログラムおよび音声操作方法を提供することである。
この発明の他の目的は、発呼を指示すると発呼することが出来る携帯電話機、音声操作プログラムおよび音声操作方法を提供することである。
この発明のその他の目的は、音声認識機能による誤動作を軽減させることが出来る、携帯端末を提供することである。
この発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明等は、この発明の理解を助けるために記述する実施形態との対応関係を示したものであって、この発明を何ら限定するものではない。
第1の発明は、表示部を有する、携帯電話機であって、対象物の近接を検出する検出部、表示部に所定画面が表示されているときに検出部が対象物の近接を検出したかを判断する判断部、判断部によって対象物の近接を検出したと判断されたとき、対象物の近接が検出されている間に入力された音声を認識する音声認識部、および音声認識部の認識結果によって発呼が指示された場合には、当該認識結果に基づき発呼する発呼部を備える、携帯電話機である。
第1の発明では、携帯電話機(10:実施例において対応する部分を例示する参照符号。以下、同じ。)は、LCDまたは有機ELなどの表示部(14)を有する。検出部(24)は、たとえば赤外線を利用して、ユーザの顔などの対象部の近接を検出する。所定画面が表示されているときに、判断部(30,S7)は対象物の近接が検出されたかを判断する。所定画面が表示されている状態で対象物の近接が検出されると、音声認識部(30,S13)は対象物の近接が検出されている間に入力された音声を認識する。所定画面が表示されている状態で対象物の近接が検出されているときに発呼を指示する認識結果が得られたとき、発呼部(30,S33)はその認識結果に基づいて発呼する。
第1の発明によれば、ユーザは所定画面が表示部に表示されている状態で顔を近づけて発呼を指示すると発呼することが出来る。
第2の発明は、第1の発明に従属し、発呼部は、音声認識部の認識結果に数字が含まれるとき、その数字を電話番号として発呼する。
第2の発明では、たとえば電話番号入力画面が表示されている状態で音声が入力されると、音声認識部は入力された音声を認識する。そして、発呼部は認識結果に数字が含まれている場合、その数字を電話番号として発呼する。
第3の発明は、第1の発明または第2の発明に従属し、電話番号を含むアドレスデータを記憶する記憶部をさらに備え、発呼部は、音声認識部の認識結果がアドレスデータを示すとき、そのアドレスデータに基づいて発呼する。
第3の発明では、記憶部(44)はたとえばフラッシュメモリであり、複数のアドレスデータを含むアドレス帳データを記憶する。各アドレスデータには相手の電話番号などが含まれる。所定画面が表示されているときに音声が入力されると、音声認識部は入力された音声を認識する。そして、認識結果が記憶されているアドレスデータを指定しているとき、発呼部はそのアドレスデータに含まれる電話番号に対して発呼する。
第2の発明または第3の発明によれば、ユーザは、登録済みのアドレスデータを指定する単語または電話番号を音声入力するだけで発呼することが出来る。
第4の発明は、第1の発明ないし第3の発明のいずれかに従属し、所定画面は、電話機能に関連する画面を含む。
第4の発明では、電話機能に関連する画面には、たとえば電話番号入力画面や、上述のアドレス帳データを表示するアドレス画面などが含まれる。
第4の発明によれば、電話機能に関連する画面が表示されていれば、ユーザは容易に発呼することが出来る。
第5の発明は、第1の発明ないし第4の発明のいずれかに従属し、所定画面は、ロック画面を含む。
第5の発明では、ロック画面が表示されているときに音声が入力されると、音声認識部はその音声を認識する。このとき、記憶されているアドレスデータが指定された場合、発呼部はそのアドレスデータに基づいて発呼する。
第5の発明によれば、ユーザはロック状態を解除することなく発呼することが出来る。
第6の発明は、第1の発明ないし第5の発明のいずれかに従属し、表示部に設けられるタッチパネル、および判断部によって対象物の近接を検出したと判断されたとき、タッチパネルに基づく操作を無効にする無効部をさらに備える。
第6の発明では、タッチパネル(16)はポインティングデバイスとも呼ばれ、表示部の上に設けられる。タッチパネルの周囲に検出部は設けられる。そのため、対象物の近接が検出されたとき、無効部(30,S11)は、タッチパネルに基づく操作を無効化する。
第6の発明によれば、顔などがタッチパネルに近接することによって生じる誤操作が発生しないようにすることができる。
第7の発明は、表示部(14)および対象物の近接を検出する検出部(24)を有する、携帯電話機(10)のプロセッサ(30)を、表示部に所定画面が表示されているときに検出部が対象物の近接を検出したかを判断する判断部(S7)、判断部によって対象物の近接を検出したと判断されたとき、対象物の近接が検出されている間に入力された音声を認識する音声認識部(S13)、および音声認識部の認識結果によって発呼が指示された場合には、当該認識結果に基づき発呼する発呼部(S33)として機能させる、音声操作プログラムである。
第7の発明でも、第1の発明と同様、ユーザは所定画面が表示部に表示されている状態で顔を近づけて発呼を指示すると発呼することが出来る。
第8の発明は、表示部(14)および対象物の近接を検出する検出部(24)を有する、携帯電話機(10)における音声操作方法であって、携帯電話機のプロセッサ(30)が、表示部に所定画面が表示されているときに検出部が対象物の近接を検出したかを判断する判断ステップ(S7)、判断ステップによって対象物の近接を検出したと判断されたとき、対象物の近接が検出されている間に入力された音声を認識する音声認識ステップ(S13)、および音声認識ステップの認識結果によって発呼が指示された場合には、当該認識結果に基づき発呼する発呼ステップ(S33)、を実行する、音声操作方法である。
第8の発明でも、第1の発明と同様、ユーザは所定画面が表示部に表示されている状態で顔を近づけて発呼を指示すると発呼することが出来る。
第9の発明は、表示部を有する、携帯端末であって、対象物の近接を検出する検出部、表示部に所定画面が表示されているときに検出部が対象物の近接を検出したかを判断する判断部、判断部によって対象物の近接を検出したと判断されたとき、対象物の近接が検出されている間に入力された音声を認識する音声認識部、および音声認識部の認識結果が有効な場合には、当該認識結果に基づき機能を実行する実行部を備える、携帯端末である。
第9の発明では、表示部(14)を有する携帯端末(10)は、第1の発明と同様、検出部(24)、判断部(30,S7)および音声認識部(30,S13)を備える。そして、携帯端末の実行部(30,S33)は、所定画面が表示されている状態で対象物の近接が検出されているときに有効な認識結果が得られると、その認識結果に基づいて機能を実行する。
第9の発明によれば、ユーザは音声操作を適切に利用することが出来る。
第10の発明は、第9の発明に従属し、所定画面に対応する機能を示す機能情報を記憶する記憶部、および記憶部によって記憶された機能情報に基づいて機能を特定する第1特定部をさらに備え、実行部は、音声認識部の認識結果に基づいて第1特定部によって特定された機能を実行する。
第10の発明では、所定画面には機能情報が対応付けられており、このことが記憶部(46)に記憶されている。第1特定部(30,S27)は、機能情報にもとづいて、所定画面と対応する機能を特定する。たとえば、特定された機能が地図機能であり、認識結果がルート検索を指示する内容であれば、実行部は、ルート検索を行うように地図機能を実行する。
第10の発明によれば、任意の機能が実行されている状態であっても、ユーザは音声操作によってその機能を操作することが出来る。
第11の発明は、第9の発明または第10の発明に従属し、所定画面は、ロック画面を含み、ロック画面が表示されているときに対象物の近接が検出されているとき、音声認識部の認識結果から機能を示す情報を抽出する抽出部、および抽出部によって抽出された情報に基づいて機能を特定する第2特定部をさらに備え、実行部は、音声認識部の認識結果に基づいて第2特定部によって特定された機能を実行する。
第11の発明では、ロック画面が表示されているときに音声が入力されると、音声認識部は入力された音声を認識する。抽出部(30,S29)は、このようにして得られた認識結果から機能を示す情報(「ルート」など)を抽出する。第2特定部(30,S31)は、抽出された情報に基づいて実行する機能を特定する。たとえば、地図機能が特定され、ルート検索が指示されている場合、実行部はルート検索を行うように地図機能を実行する。
第11の発明によれば、ユーザはロック画面の解除操作を行うことなく、任意の機能を音声操作によって実行することが出来る。
この発明によれば、発呼を指示すると発呼することが出来る。
この発明の上述の目的、その他の目的、特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
図1(A),(B)を参照して、この発明の一実施例の携帯電話機10は、一例としてスマートフォン(smart phone)であり、縦長の扁平矩形のハウジング12を含む。ただし、この発明は、タブレット端末、PDAなど任意の携帯端末に適用可能であることを予め指摘しておく。
ハウジング12の一方主面(表面)には、表示部として機能する、たとえば液晶や有機ELなどのディスプレイ14が設けられる。ディスプレイ14の上には、タッチパネル16が設けられる。
ハウジング12の縦方向一端の主面側にスピーカ18が内蔵され、縦方向他端の主面側にマイク20が内蔵される。
ハウジング12の一方主面には、タッチパネル16と共に入力操作手段を構成するハードキーとして、この実施例では、通話キー22a、終話キー22bおよびメニューキー22cが設けられる。
また、ハウジング12の一方主面においてスピーカ18の近くには、近接センサ24が設けられている。ハウジング12の他面(裏面)の縦方向一端には、カメラモジュール50(図2参照)に通じるレンズ開口26が設けられている。ただし、近接センサ24のセンサ面と、カメラモジュール50に含まれるイメージセンサのセンサ面とはハウジング12から露出するように設けられ、その他の部分はハウジング12に内蔵される。
たとえば、ユーザは、ディスプレイ14に表示されたダイヤルキーに対して、タッチパネル16によってタッチ操作を行うことで電話番号を入力でき、通話キー22aを操作して音声通話を開始することができる。終話キー22bを操作すれば、音声通話を終了することができる。なお、ユーザは終話キー22bを長押しすることによって、携帯電話機10の電源をオン/オフすることができる。
また、メニューキー22cを操作すれば、ディスプレイ14にメニュー画面が表示され、その状態でディスプレイ14に表示されているソフトキーやメニューアイコンなどに対して、タッチパネル16によるタッチ操作を行うことによってメニューを選択し、その選択を確定させることができる。
さらに、詳細な説明は後述するが、カメラ機能が実行されると、カメラモジュール50が起動し、ディスプレイ14に被写界と対応するプレビュー画像(スルー画像)が表示される。そして、ユーザは、レンズ開口26が設けられている他面を被写体に向けて撮影操作を行うことで、被写体を撮影することが出来る。
図2を参照して、図1に示す実施例の携帯電話機10は、コンピュータまたはCPUと呼ばれるプロセッサ30などを含む。プロセッサ30には、近接センサ24、無線通信回路32、A/D変換器36、D/A変換器38、入力装置40、表示ドライバ42、フラッシュメモリ44、RAM46、タッチパネル制御回路48およびカメラモジュール50などが接続される。
プロセッサ30は、携帯電話機10の全体制御を司る。RAM46には、フラッシュメモリ44に予め設定されているプログラムの全部または一部が使用に際して展開され、プロセッサ30はこのRAM46上のプログラムに従って動作する。なお、RAM46はさらに、プロセッサ30のワーキング領域ないしバッファ領域として用いられる。また、フラッシュメモリ44またはRAM46は記憶部と呼ばれることもある。
入力装置40は、図1に示すハードキー22を含むものである。そのため、ハードキー22に対するユーザからのキー操作を受け付ける操作受付部を構成する。ユーザが操作したハードキーの情報(キーデータ)はプロセッサ30に入力される。
無線通信回路32は、アンテナ34を通して、音声通話やメールなどのための電波を送受信するための回路である。実施例では、無線通信回路32は、CDMA方式での無線通信を行うための回路である。たとえば、ユーザが入力装置40を操作して音声発信(発呼)を指示すると、無線通信回路32は、プロセッサ30の指示の下、音声発信処理を実行し、アンテナ34を介して音声発信信号を出力する。音声発信信号は、基地局および通信網を経て相手の電話機に送信される。そして、相手の電話機において着信処理が行われると、通信可能状態が確立され、プロセッサ30は通話処理を実行する。
A/D変換器36には図1に示すマイク20が接続され、マイク20からの音声信号はA/D変換器36を通してディジタルの音声データとしてプロセッサ30に入力される。D/A変換器38にはスピーカ18が接続される。D/A変換器38は、ディジタルの音声データを音声信号に変換して、アンプを介してスピーカ18に与える。したがって、音声データに基づく音声がスピーカ18から出力される。
表示ドライバ42には図1に示すディスプレイ14が接続され、したがって、ディスプレイ14はプロセッサ30から出力される映像または画像データに従って映像または画像を表示する。つまり、表示ドライバ42は、プロセッサ30の指示の下、当該表示ドライバ42に接続されたディスプレイ14の表示を制御する。また、表示ドライバ42は表示する画像データを一時的に記憶するビデオメモリを含む。ディスプレイ14には、たとえばLEDなどを光源とするバックライトが設けられており、表示ドライバ42はプロセッサ30の指示に従って、そのバックライトの明るさや、点灯/消灯を制御する。
タッチパネル制御回路48には、図1に示すタッチパネル16が接続される。タッチパネル制御回路48は、タッチパネル16に必要な電圧などを付与するとともに、タッチパネル16に対するユーザによるタッチの開始を示すタッチ開始信号、ユーザによるタッチの終了を示す終了信号、およびユーザがタッチしたタッチ位置を示す座標データをプロセッサ30に入力する。したがって、プロセッサ30はこの座標データに基づいて、ユーザがディスプレイ14に表示されるどのアイコンやキーにタッチしたかを判断することができる。
実施例では、タッチパネル16は、その表面と表面に接近した指などの対象物との間に生じる静電容量の変化を検出する静電容量方式のタッチパネルである。タッチパネル16は、たとえば1本または複数本の指がタッチパネル16に触れたことを検出する。そのため、タッチパネル16はポインティングデバイスとも呼ばれる。タッチパネル制御回路48はタッチ検出部として機能し、タッチパネル16のタッチ有効範囲内でのタッチ操作を検出して、そのタッチ操作の位置を示す座標データをプロセッサ30に出力する。つまり、ユーザは、タッチパネル16の表面に対してタッチ操作を行うことによって、操作位置や、操作方向などを携帯電話機10に入力する。
本実施例のタッチ操作には、タップ操作、ロングタップ操作、フリック操作、スライド操作などが含まれる。
タップ操作は、タッチパネル16の表面に指を接触(タッチ)させた後、短時間のうちにタッチパネル16の表面から指を離す(リリースする)操作である。ロングタップ操作は、所定時間以上、指をタッチパネル16の表面に接触させ続けた後、指をタッチパネル16の表面から離す操作である。フリック操作は、タッチパネル16の表面に指を接触させ、任意の方向へ所定速度以上で指を弾く操作である。スライド操作は、タッチパネル16の表面に指を接触させたまま任意の方向へ移動させた後、タッチパネル16の表面から指を離す操作である。
また、上記のスライド操作には、ディスプレイ14の表面に表示されたオブジェクトに指を触れ、オブジェクトを移動させるスライド操作、いわゆるドラッグ操作も含まれる。
なお、以下の説明では、ドラッグ操作の後、タッチパネル16の表面から指を離す操作をドロップ操作と呼ぶ。また、タッチ操作、ロングタップ操作、フリック操作、スライド操作、ドラッグ操作およびドロップ操作は、それぞれ「操作」を省略して記述することがある。また、本実施例のオブジェクトには、機能を実行するためのアイコン、ショートカットアイコン、ファイル、フォルダなどが含まれる。また、タッチパネル16の検出方式には、上述した静電容量方式に代えて、抵抗膜方式、超音波方式、赤外線方式および電磁誘導方式などが採用されてもよい。また、タッチ操作はユーザの指だけに限らず、スタイラスペンなどによって行われてもよい。
近接センサ24は、図示は省略するが、発光素子(たとえば、赤外線LED)と受光素子(たとえば、フォトダイオード)とを含む。プロセッサ30は、フォトダイオードの出力の変化から、近接センサ24(携帯電話機10)に近接する対象物(たとえば、ユーザの顔)の距離を算出する。具体的には、発光素子は赤外線を発光し、受光素子は、顔などで反射した赤外線を受光する。たとえば、受光素子がユーザの顔から遠い場合は、発光素子から発せられた赤外線は受光素子によってほとんど受光されない。一方、近接センサ24にユーザの顔が近接すると、発光素子が発光した赤外線は顔に反射して受光素子によって受光される。このように、受光素子は近接センサ24がユーザの顔に近接している場合とそうでない場合とで赤外線の受光量が変化する。たとえば、近接センサ24がユーザの顔に近接している場合は赤外線の受光量が大きくなり、近接センサ24がユーザの顔に近接していない場合は赤外線の受光量が小さくなる。なお、近接センサ24は検出部と呼ばれることもある。
カメラモジュール50は制御回路、レンズおよびイメージセンサなどを含む。プロセッサ30は、カメラ機能を実行する操作がされると、制御回路およびイメージセンサを起動する。そして、イメージセンサから出力された信号に基づく画像データがプロセッサ30に入力されると、被写体に対応するプレビュー画像がディスプレイ14に表示される。
本実施例の携帯電話機10は、タッチパネル16に対するユーザの意図しない入力による誤操作を防止するために、タッチ操作に基づく所定の処理の実行を制限するロック状態を設定することができる。たとえば、終話キー22bが操作されると、ディスプレイ14およびタッチパネル16の電源がオフにされると共にロック状態が設定される。この状態で、メニューキー22cなどが操作されると、ディスプレイ14およびタッチパネル16の電源がオンとなり、図3に示すロック画面が表示され、ロック状態の解除操作が受け付けられるようになる。ただし、ディスプレイ14の表示が一定時間変化しなくても、ディスプレイ14は自動的にオフにされ、ロック状態が設定される。
なお、本実施例のロック状態では、ロック画面が表示されるまでは、ディスプレイ14およびタッチパネル16の電源がオフにされているため、携帯電話機10の消費電力が抑えられる。ただし、他の実施例では、タッチパネル16の電源をオフにすることなく、プロセッサ30が入力されたタッチ操作を処理しないことで、タッチ操作を無効にしてもよい。
図3を参照して、ロック画面を表示するディスプレイ14の表示範囲は、状態表示領域60および機能表示領域62を含む。状態表示領域60には、アンテナ34による電波受信状態を示すアイコン(ピクト)、二次電池の残電池容量を示すアイコンおよび日時が表示される。また、機能表示領域62には、現在日時60が表示され、下側にはロックオブジェクトRO、解除オブジェクトDOおよびカメラオブジェクトCOが表示される。
図4(A)を参照して、ロックオブジェクトROに対してタッチされると、解除オブジェクトDOおよびカメラオブジェクトCOが軌道上に配置されるように、円周Cが表示される。また、ロックオブジェクトROに対してドラッグが行われると、その表示位置がユーザの指の位置、つまり現在のタッチ位置に合わせて変化する。
図4(B)を参照して、ロックオブジェクトROに対してドラッグが行われ、ロックオブジェクトROが解除オブジェクトDOと重なった状態で、ロックオブジェクトROがドロップされると、ロック状態が解除される。ロック状態が解除されると、図4(C)に示すようにロック画面に代えてホーム画面が表示される。つまり、ユーザは、ロックオブジェクトROをドラッグして、解除オブジェクトDOにドロップすることで、ロック状態を解除することが出来る。
このように、ロックオブジェクトROおよび解除オブジェクトDOがディスプレイ14の下側に表示されるため、ユーザはロックオブジェクトROを利用するロック状態の解除操作を片手で容易に行うことができる。また、ユーザは、左右の手のどちらでも、ロック状態の解除操作を行うことができる。
なお、ロックオブジェクトROを解除オブジェクトDOにドロップする際は、ロックオブジェクトROが解除オブジェクトDOの一部と重なった状態であってもよいし、全部と重なった状態であってもよい。つまり、どちらの状態でドロップされたとしても、ロック状態は解除される。
図5(A)を参照して、ロックオブジェクトROがドラッグされ、ディスプレイ14に表示されたカメラオブジェクトCO上でドロップされると、ロック状態が解除されると共に、カメラ機能が実行される。カメラ機能が実行されると、図5(B)に示すように、ディスプレイ14には、ロック画面に代えて、カメラ機能によって得らえるスルー画像が表示される。つまり、ユーザは、ロック状態を解除すると共にカメラ機能を実行することが出来る。
また、上述したホーム画面(図4(C))には、電話機能、メール機能、ブラウザ機能、カレンダー機能、時計機能、カメラ機能、地図機能、ミニブログ機能およびメモ帳機能と対応する複数の機能オブジェクトが配置されている。ユーザは、これらの機能オブジェクトのうち任意の機能オブジェクトに対してタッチ操作を行うことで、任意の機能を実行することが出来る。
図6(A)は電話機能に関連する画面として表示される電話番号入力画面の一例を示す。たとえば、電話機能に対応する機能オブジェクト(電話オブジェクト)にタッチされたときに、電話番号入力画面は表示される。この画面には、アドレス帳に含まれるアドレスデータおよび複数のタブが表示されると共に、発呼を行うためのダイヤルパッドが表示される。
アドレスデータはユーザによって登録された氏名および電話番号などを含み、電話番号入力画面では複数のアドレスデータが「アドレス帳」として表示される。複数のタブには、アドレス帳を文字順(アルファベット順など)からユーザによって設定されたグループ順に切り替えるグループ切替タブ、発呼/着呼履歴を表示するための履歴タブ、アドレス帳を表示するためのアドレス帳タブおよび電話番号を直接入力して発呼するためのダイヤルタブが含まれる。なお、図6(A)に示す状態では、ダイヤルタブが選択されている状態となり、ダイヤルタブの色が反転している状態となる。
ダイヤルパッドには、電話番号を入力するためのダイヤルキー群および入力した電話番号を修正するための修正キーなどが含まれる。
図6(B)は電話機能に関連する画面として表示されるアドレス画面の一例を示す。たとえば、アドレス画面はアドレス帳タブが操作されるか、アドレス帳を表示するための機能オブジェクト(アドレス帳オブジェクト)にタッチされたときに表示される。そして、このアドレス画面では、アドレスデータが選択可能に表示される。また、機能表示領域62の右側には検索バーが表示される。たとえば、ユーザが検索バーにタッチすると、タッチ位置と対応する文字(たとえば、A,B,C…)に基づいてアドレスデータが表示される。そして、ユーザが検索バー上で指を上下にスライドすると、タッチ位置と対応するする文字が変化するため表示されるアドレスデータも変化する。つまり、ユーザは、検索バーを利用することで、アドレス帳から必要なアドレスデータを効率よく検索することが出来る。ユーザは任意のアドレスデータを選択することで、そのアドレスデータと対応する相手の電話機に発呼することが出来る。
図7は音声発呼中画面の一例を示す図解図である。たとえば、ダイヤルパッドによって電話番号が入力された後に通話キー22aが操作されると、発呼中画面が機能表示領域62に表示される。発呼中画面には、発呼中であることを示すメッセージおよび画像が表示される。ユーザは、相手との通話状態が確立される前に終話キー22bを操作することで音声発信処理を中断することが出来る。音声発信処理が中断されると前の画面、たとえば図6(A)に示す電話番号入力画面が表示される。
ここで、携帯電話機10は音声認識機能を有しており、認識結果に基づいて携帯電話機10の機能が実行される。つまり、ユーザは携帯電話機10を音声によって操作(音声操作)することが出来る。ところが、音声認識機能が常に実行されていると、周囲の雑音によってユーザの意図に反して何らかの機能が実行されてしまう可能性がある。また、音声認識機能を常に実行されている状態では消費電力が高くなってしまうという問題もある。そこで、本実施例では、音声認識機能が実行される状態を限定することで、音声操作による誤動作を軽減すると共に、消費電力を抑える。
本実施例では、ディスプレイ10に所定画面が表示され、かつユーザの顔の近接が検出されたときに音声認識機能が実行される。図8(A)を参照して、電話番号入力画面が表示されている状態で近接センサ24によってユーザの顔の近接が検出されると、音声認識機能が実行される。音声認識機能が実行されるのと略同時に、音声認識アイコンSRが状態表示領域60に表示される。この状態で、ユーザが数字を示す音声(たとえば1,2,3…)を発話するとその音声が認識される。そして、認識結果が示す番号が電話番号として入力され、その電話番号に発呼される。
また、図8(B)を参照して、アドレス画面が表示されている場合もユーザの顔の近接によって音声認識機能が実行されると、音声認識アイコンSRが表示される。このとき、アドレスデータを示す音声が発話されるとその音声が認識され、認識結果によって示されるアドレスデータに基づいて発呼される。このように、ユーザは、電話機能に関連する画面が表示されていれば、ユーザは容易に発呼することが出来る。
なお、アドレス画面で電話番号が音声入力されてもよいし、電話番号入力画面でアドレスデータを指定する単語が音声入力されてもよい。
図9を参照して、ロック画面が表示されている状態でユーザの顔が近づけられた場合も、音声認識アイコンSRが表示されると共に、音声認識機能が実行される。この状態で、アドレスデータを指定する単語または電話番号と、電話機能を示す単語(たとえば、「発呼」など)とを音声入力することで、ユーザは任意の相手に発呼することが出来る。つまり、ユーザはロック状態を解除することなく発呼することが出来る。
このように、本実施例では電話機能に関連するアドレス画面または電話番号入力画面およびロック画面などが所定画面とされ、ユーザは、これらの所定画面がディスプレイ14に表示されている状態で顔を近づけて発呼を指示すると発呼することが出来る。特に、ユーザの顔が接近した状態で発呼の指示が行われるため、ユーザは自然な流れで通話を開始することが出来る。
また、音声認識機能が実行される状態が限定されるため、携帯電話機10の消費電力が抑えられる。
また、ユーザは登録済みのアドレスデータを指定する単語または電話番号を発話するだけで発呼することが出来る。
また、近接センサ24によってユーザの顔などの近接が検出されると、タッチパネル16に対するタッチ操作は無効にされる。つまり、顔などがタッチパネル16に触れることによって生じる誤操作が発生しないようにされている。
ここで、音声認識機能が実行されているロック画面では、機能を特定する単語および動作の内容を音声入力することで、電話機能以外の機能も音声操作によって実行することが出来る。
図10(A)を参照して、ロック画面で「XX駅までのルート」と音声入力が行われた場合、認識結果に含まれる「ルート」は地図機能を示すと共に、地図機能のルート検索の利用も示す。そのため、このような音声入力が行われると地図機能が実行され、現在位置から「XX駅」までのルート検索が行われる。そして、検索結果のルートおよびルート周辺の地図がディスプレイ14に表示される。
また、図10(B)を参照して、ロック画面で「XX駅の周辺地図」と音声入力が行われた場合、認識結果に含まれる「周辺地図」は地図機能を示すと共に、施設検索の利用も示す。そのため、このような音声入力が行われると地図機能が実行され、「XX駅」の地図上の位置が検索される。そして、検索結果として「XX駅」の周辺地図がディスプレイ14に表示される。
さらに、地図機能の地図機能画面も所定画面に含まれるため、地図機能画面で「XX駅までのルート」と音声入力が行われれば目的地までのルートが表示され、「XX駅」と音声入力が行われれば周辺地図が表示される。
図11(A)を参照して、たとえばロック画面で「カレンダー」と音声入力が行われた場合、認識結果に含まれる「カレンダー」はカレンダー機能を示す。そのため、カレンダー機能が実行され、操作されている時点の日付を含むカレンダーがディスプレイに表示される。
また、図11(B)を参照して、ロック画面で「天体観測を7月7日にスケジュール登録」と音声入力が行われた場合、認識結果に含まれる「スケジュール登録」はカレンダー機能を示すと共に、スケジュールの登録も示す。また、認識結果に含まれる「7月7日」はスケジュール登録を行う日付を示す。従って、「7月7日」において「天体観測」がスケジュールの内容として登録される。
さらに、カレンダー機能のカレンダー画面を所定画面とし、「7月7日に天体観測」と音声入力が行われれば、「7月7日」のスケジュールに「天体観測」が追加される。
図12を参照して、ロック画面で「telescopeをメモ帳に登録」と音声入力が行われた場合、認識結果に含まれる「メモ帳」はメモ帳機能を示す。そのため、メモ帳機能が実行されたうえで、認識結果に含まれる「telescope」が入力された状態となる。また、メモ帳機能が実行されている状態で「telescope」と音声入力が行われた場合、音声入力で文字を入力することが出来る。
図13を参照して、ロック画面で「AAAにメール」と音声入力が行われた場合、認識結果に含まれる「メール」はメール機能を示すと共に、新規メールの作成も示す。また、認識結果に含まれる「AAA」はアドレスデータを示す単語である。そのため、メール機能が実行され、AAAを宛先とする新規メールの編集画面がディスプレイ14に表示される。また、メール機能が実行されているときに、「AAAにメール」と音声入力が行われても、AAAを宛先とする新規メールの編集が表示される。
図14を参照して、ロック画面で「Milky Wayをネットで検索」と音声入力が行われた場合、認識結果に含まれる「ネットで検索」はブラウザ機能を示すと共に、検索サイトなどで検索を行うことを示す。そのため、ブラウザ機能が実行されたうえで、「Milky Way」が検索サイトなどを利用して検索される。また、ブラウザ機能が実行されている状態で、「Milky Way」と音声入力が行われれば、認識結果の文字列が検索サイトで検索される。
図15(A)を参照して、ロック画面で「現在時刻」と音声入力が行われた場合、認識結果に含まれる「現在時刻」は時計機能を示す。そのため、時計機能が実行され現在時刻がディスプレイ14に表示される。
また、図15(B)を参照して、ロック画面で「10時にアラーム」と音声入力が行われた場合、認識結果に含まれる「アラーム」は時計機能を示すと共に、アラームの登録を示す。そのため、時計機能が実行されたうえで「10時」にアラームが登録され、アラーム画面がディスプレイ14に表示される。
さらに、時計機能の時計画面を所定画面として、「10時にアラーム」と音声入力がされても、「10時」にアラームが登録される。
図16を参照して、ロック画面で「I began twitとつぶやき」と音声入力が行われた場合、認識結果に含まれる「つぶやき」はミニブログ機能を示すと共に、新規記事の投稿を示す。そのため、ミニブログ機能が実行され、「I began twit」の文字列がミニブログに投稿される。また、ミニブログ機能によってミニブログのサイトが表示さている状態で「I began twit」と音声入力が行われても、「I began twit」の文字列がミニブログに投稿される。
これらの例から分かるように、ユーザはロック画面の解除操作を行うことなく、任意の機能を音声操作によって実行することが出来る。
また、ロック画面で顔を近接させたときに音声認識機能が実行されるようにしたため、音声認識機能による誤動作を軽減させることが出来る。
図17は画面IDテーブルの構成の一例を示す。ディスプレイ14に表示される各画面には、それぞれを識別するための画面IDが割り付けられている。そして、画面IDテーブルは、画面ID、名称、および機能の列を含む。画面IDの列には画面ID(たとえば、0X00008844など)がそれぞれ記憶される。名称の列には画面IDに対応して画面の名称(たとえば、電話番号入力画面など)が記憶される。機能の列には画面IDに対応付けて機能(たとえば、電話機能など)が記憶される。なお、画面IDテーブルの各行は機能情報と呼ばれることもある。
そして、本実施例では、所定画面の画面IDに対して実行する機能を対応付けている。そのため、ロック画面以外の所定画面が表示されている場合は、機能を指定する単語が入力されていなくても、所定画面に対応する機能を実行することが出来る。
このように、任意の機能が実行されている状態であっても、ユーザは音声操作によってその機能を操作することが出来る。
なお、各機能を示す単語は、「ルート」、「カレンダー」などに限らず、他の単語が用いられてもよいことは言うまでもない。
また、ロック画面で「カメラ撮影」と音声入力が行われた場合は、カメラ機能が実行されディスプレイ14には、図5(B)に示すようなスルー画像が表示される。
また、他の実施例では、認識結果をディスプレイ14に表示し、ユーザの確認操作がされなければ、次の動作が実行されないようにしてもよい。
上述では実施例の特徴を概説した。以下では、図18に示すメモリマップおよび図19−図21に示すフロー図を用いて詳細に説明する。
図18を参照して、図2に示すRAM46には、プログラム記憶領域302とデータ記憶領域304とが形成される。プログラム記憶領域302は、先に説明したように、フラッシュメモリ44(図2)に予め設定しているプログラムデータの一部または全部を読み出して記憶(展開)しておくための領域である。
プログラム記憶領域302には、音声を認識するための音声認識プログラム310、音声操作を行うための音声操作プログラム312および近接センサ24によって対象物の近接を検出するための近接検出プログラム314などが記憶される。なお、プログラム記憶領域302には、電話機能およびメール機能などを実行するためのプログラムも含まれる。
続いて、RAM46のデータ記憶領域304には、タッチバッファ330、近接バッファ332、画面IDバッファ334、入力音声バッファ336および認識結果バッファ338などが設けられると共に、タッチ座標マップ340および画面IDテーブル342などが記憶される。また、データ記憶領域304には、タッチフラグ344、タッチ無効フラグ346および近接フラグ348なども設けられる。
タッチバッファ330には、タッチパネル制御回路48が出力するタッチ座標のデータが一時的に記憶される。近接バッファ332には、近接センサ24の出力が一時的に記憶される。画面IDバッファ334には、表示されている画面の画面IDが一時的に記憶される。入力音声バッファ336には、ユーザが入力した音声の音声データが一時的に記憶される。認識結果バッファ338には、音声認識処理によって得られた認識結果(文字列)が一時的に記憶される。
タッチ座標マップ340は、タッチ操作におけるタッチ座標とディスプレイ14の表示座標とを対応付けるためのデータである。つまり、タッチ座標マップ340に基づいて、タッチパネル16に対して行われたタッチ操作の結果が、ディスプレイ14の表示に反映される。画面IDテーブル342は、たとえば図17に示すように機能が画面IDに対応付けて記憶されているテーブルである。
タッチフラグ344は、タッチパネル16に対してタッチされているか否かを判断するためのフラグである。たとえば、タッチフラグ344は、1ビットのレジスタで構成される。タッチフラグ344がオン(成立)されると、レジスタにはデータ値「1」が設定される。一方、タッチフラグ344がオフ(不成立)されると、レジスタにはデータ値「0」が設定される。なお、タッチフラグ344は、タッチパネル制御回路48が出力する信号に基づいてオン/オフが切り換えられる。
タッチ無効フラグ346は、タッチパネル16に対するタッチ操作が無効にされているかを示すフラグである。たとえば、タッチ無効フラグ346がオフであればタッチ操作が有効にされており、タッチ無効フラグ346がオンであればタッチ操作が無効にされている。近接フラグ348は近接センサ24によって対象物の近接が検出されているかを示すフラグである。たとえば、近接フラグ348がオンであれば近接センサ24によって対象物の近接が検出されており、近接フラグ348がオフであれば近接センサ24によって対象物の近接は検出されていない。
なお、データ記憶領域304には、待機状態で表示される画像データや、文字列のデータなどが記憶されると共に、携帯電話機10の動作に必要なカウンタや、フラグも設けられる。
また、機能を示す単語と機能とを対応付けるテーブル、アドレスデータおよび音声認識用の辞書データはフラッシュメモリ44に記憶されている。
プロセッサ30は、Android(登録商標)およびREXなどのLinux(登録商標)ベースのOSや、その他のOSの制御下で、図19、図20に示す音声操作処理および図21に示す近接検出処理などを含む複数のタスクを並列的に処理する。
音声操作処理は、たとえば携帯電話機10の電源がオンにされると実行される。ステップS1でプロセッサ30は、所定画面が表示されたか否かを判断する。つまり、プロセッサ30は、画面IDバッファ334に記憶されている表示されている画面の画面IDを読み出し、画面IDテーブル342においてその画面IDと対応する機能の列に機能が記憶されているかを判断する。ステップS1で“NO”であれば、つまり所定画面が表示されていなければ、ステップS1の処理が繰り返して実行される。
一方、ステップS1で“YES”であれば、たとえば所定画面として設定されているロック画面が表示されていれば、ステップS3でプロセッサ30は、近接センサ24をオンにする。つまり、所定画面が表示されている状態で対象物の近接を検出するために、近接センサ24の電源がオンにされる。続いて、ステップS5でプロセッサ30は、近接検出処理を実行する。なお、近接検出処理については、図21のフロー図を用いて詳細に説明するため、ここでの説明は省略する。続いて、ステップS7でプロセッサ30は、近接を検出したか否かを判断する。つまり、近接フラグ348がオンであるかが判断される。なお、ステップS7の処理を実行するプロセッサ30は判断部として機能する。
ステップS7で“NO”であれば、つまり対象物の近接が検出されていなければ、プロセッサ30はステップS5の処理に戻る。また、ステップS7で“YES”であれば、たとえばユーザの顔の近接が検出され近接フラグ348がオンであれば、ステップS9でプロセッサ30は、音声認識アイコンSRを表示する。たとえば、図9に示すように状態表示領域60に音声認識アイコンSRが表示される。続いて、ステップS11でプロセッサ30は、タッチ操作を無効にする。つまり、タッチ無効フラグ346がオンにされる。続いて、ステップS13でプロセッサ30は、音声認識処理を実行する。つまり、音声認識機能が実行された状態となる。なお、ステップS11の処理を実行するプロセッサ30は無効部として機能する。また、ステップS13の処理を実行するプロセッサ30は音声認識部として機能する。
続いて、ステップS15でプロセッサ30は、有効な音声が入力されたか否かを判断する。たとえば、プロセッサ30は、認識結果バッファ338に記憶される音声認識の認識結果が、数字または機能を示しているかを判断する。ステップS15で“NO”であれば、たとえば音声が入力されていなかったり、入力された音声が有効でなかったりすれば、ステップS17でプロセッサ30は、近接検出処理を実行する。続いて、ステップS19でプロセッサ30は、近接が検出されなくなったか否かを判断する。つまり、近接フラグ348がオフであるかが判断される。
ステップS19で“YES”であれば、たとえばユーザの顔が検出されなくなり、近接フラグ348がオフに切り替わっていれば、ステップS21でプロセッサ30は、タッチ操作を有効にする。つまり、タッチ無効フラグ346がオフにされる。続いて、ステップS23でプロセッサ30は、音声認識処理を終了する。つまり音声認識機能を終了する。そして、ステップS23の処理が終了すれば、プロセッサ30はステップS1の処理に戻る。
一方、ステップS19で“NO”であれば、たとえばユーザの顔が検出され続けていれば、プロセッサ30はステップS15の処理に戻る。また、ステップS15で“YES”であれば、たとえば「AAAに発呼」と音声入力されて認識結果バッファ338にこのような認識結果が記憶されていれば、ステップS25でプロセッサ30は、ロック画面か否かを判断する。つまり、画面IDバッファ334に記憶されている画面IDがロック画面の画面IDと一致するかが判断される。
ステップS25で“NO”であれば、たとえば表示されている画面がアドレス画面であれば、ステップS27でプロセッサ30は、画面IDテーブル342に基づいて機能を特定する。たとえば、電話番号入力画面が表示されている場合、画面IDテーブル342において電話番号入力画面と対応する機能の欄に基づいて電話機能が特定される。そして、ステップS27の処理が終了すれば、プロセッサ30はステップS33の処理に進む。
一方、ステップS25で“YES”であれば、たとえば表示されている画面がロック画面であれば、ステップS29でプロセッサ30は、認識結果から機能を示す情報を抽出する。たとえば、認識結果バッファ338に「AAAに発呼」と記憶されている場合、「発呼」が機能を示す情報として抽出される。続いて、ステップS31でプロセッサ30は、抽出された情報から機能を特定する。たとえば、「発呼」が抽出されていれば、電話機能が特定される。そして、ステップS31の処理が終了すれば、プロセッサ30はステップS33に進む。
続いて、ステップS33でプロセッサ30は、認識結果に基づいて特定された機能を実行する。たとえば、電話機能が特定されている場合、認識結果に含まれる文字列が数字であれば、その数字を電話番号として発呼処理を実行する。また、認識結果に含まれる文字列が数字でなければ、その文字列がアドレスデータの名称として登録されているかを検索し、該当するアドレスデータが発見されればそのアドレスデータに含まれる電話番号に基づいて発呼処理が実行される。そして、このように電話機能が実行される場合、ステップS33を実行するプロセッサ30は発呼部として機能する。
また、認識結果バッファ338に「XX駅までのルート」と記憶されており、地図機能画面が表示されていれば、ステップS25では“NO”と判断される。このとき、ステップS27では、画面IDバッファ334に記憶されている画面IDと画面IDテーブル342とに基づいて「地図機能」が特定される。なお、ステップS27の処理を実行するプロセッサ30は第1特定部として機能する。
さらに、認識結果バッファ338に「XX駅までのルート」と記憶されており、ロック画面が表示されていれば、ステップS25では“YES”と判断される。このとき、ステップS29では認識結果うち、「ルート」が機能を示す情報として抽出され、ステップS31で「ルート」に基づいて「地図機能」が特定される。なお、ステップS29の処理を実行するプロセッサ30は抽出部として機能し、ステップS31の処理を実行するプロセッサ30は第2特定部として機能する。
そして、ステップS27またはステップS31で機能が特定されるとステップS33では、認識結果に含まれる「ルート」および「XX駅」に基づいて、地図機能が実行されたうえで現在地から「XX駅」までのルート検索が行われる。その結果、図10(A)に示すような画面がディスプレイ14に表示される。なお、ステップS33では電話機能以外も実行されることから、ステップS33の処理を実行するプロセッサ30は実行部と呼ばれることもある。
特定された機能がステップS33で実行されると、プロセッサ30は、ステップS35で近接処理を実行し、ステップS37で近接が検出されなくなったか否かを判断する。ステップS37で“NO”であれば、たとえば通話を行うユーザの顔が検出され、近接フラグ348がオンであれば、プロセッサ30はステップS35の処理に戻る。一方、ステップS37で“YES”であれば、たとえば通話が終了してユーザが顔を携帯電話機10から離し、近接フラグ348がオフであれば、ステップS30は、ステップS39でタッチ操作を有効にし、ステップS41で音声認識処理を終了する。そして、ステップS41の処理が終了すれば、プロセッサ30は音声操作処理を終了する。
なお、所定画面で実行される機能が電話機能だけであれば、機能を特定するステップS27−S31の処理は省略されてもよい。
図21は近接検出処理のフロー図である。たとえば、図19に示す音声操作処理でステップS5の処理が実行されると、プロセッサ30はステップS61で、近接センサ24の出力を取得する。つまり、近接バッファ332から近接センサ24の値が読み出される。
続いて、ステップS63でプロセッサ30は、近接センサ24の値が閾値より大きいか否かを判断する。つまり、近接センサ24によって検出された対象物が携帯電話機10に近接している状態であるかが判断される。ステップS63で“YES”であれば、つまり近接センサ24と対象物との距離が近く、近接センサ24の値が閾値よりも大きければ、ステップS67でプロセッサ30は、近接フラグ348をオンにする。つまり、対象物の近接が検出されている状態と判断される。一方、ステップS63で“NO”であれば、たとえば近接センサ24と対象物との距離が離れており、近接センサ24の値が閾値よりも小さければ、ステップS69でプロセッサ30は、近接フラグ348をオフにする。つまり、対象物の近接が検出されていない状態と判断される。
続いて、ステップS63でプロセッサ30は、近接センサ24の値が閾値より大きいか否かを判断する。つまり、近接センサ24によって検出された対象物が携帯電話機10に近接している状態であるかが判断される。ステップS63で“YES”であれば、つまり近接センサ24と対象物との距離が近く、近接センサ24の値が閾値よりも大きければ、ステップS67でプロセッサ30は、近接フラグ348をオンにする。つまり、対象物の近接が検出されている状態と判断される。一方、ステップS63で“NO”であれば、たとえば近接センサ24と対象物との距離が離れており、近接センサ24の値が閾値よりも小さければ、ステップS69でプロセッサ30は、近接フラグ348をオフにする。つまり、対象物の近接が検出されていない状態と判断される。
そして、近接フラグ348のオン/オフが設定されれば、プロセッサ30は近接検出処理を終了する。
なお、ロック画面から音声操作によって実行可能な機能には、SMS機能などが含まれていてもよい。
また、電話機能の発呼には、「skype(登録商標)」および「LINE(登録商標)」などのインターネット電話機能による発呼や、IP電話機能による発呼も含まれる。
また、上述の実施例では、所定回数などの閾値に対して「より大きい」の言葉を用いたが「閾値より大きい」とは「閾値以上」の意味も含まれる。また、「閾値よりも小さい」とは「閾値以下」および「閾値未満」の意味も含まれる。
また、本実施例で用いられたプログラムは、データ配信用のサーバのHDDに記憶され、ネットワークを介して携帯電話機10に配信されてもよい。また、CD,DVD,BD(Blue-Ray Disk)などの光学ディスク、USBメモリおよびメモリカードなどの記憶媒体に複数のプログラムを記憶させた状態で、その記憶媒体が販売または配布されてもよい。そして、上記したサーバや記憶媒体などを通じてダウンロードされた、プログラムが本実施例と同等の構成の携帯端末にインストールされた場合、本実施例と同等の効果が得られる。
そして、本明細書中で挙げた、具体的な数値は、いずれも単なる一例であり、製品の仕様変更などに応じて適宜変更可能である。
10 … 携帯電話機
14 … ディスプレイ
16 … タッチパネル
24 … 近接センサ
30 … プロセッサ
40 … 入力装置
44 … フラッシュメモリ
46 … RAM
14 … ディスプレイ
16 … タッチパネル
24 … 近接センサ
30 … プロセッサ
40 … 入力装置
44 … フラッシュメモリ
46 … RAM
Claims (11)
- 表示部を有する、携帯電話機であって、
対象物の近接を検出する検出部、
前記表示部に所定画面が表示されているときに前記検出部が対象物の近接を検出したかを判断する判断部、
前記判断部によって対象物の近接を検出したと判断されたとき、対象物の近接が検出されている間に入力された音声を認識する音声認識部、および
前記音声認識部の認識結果によって発呼が指示された場合には、当該認識結果に基づき発呼する発呼部を備える、携帯電話機。 - 前記発呼部は、前記音声認識部の認識結果に数字が含まれるとき、その数字を電話番号として発呼する、請求項1記載の携帯電話機。
- 電話番号を含むアドレスデータを記憶する記憶部をさらに備え、
前記発呼部は、前記音声認識部の認識結果がアドレスデータを示すとき、そのアドレスデータに基づいて発呼する、請求項1または2記載の携帯電話機。 - 前記所定画面は、電話機能に関連する画面を含む、請求項1ないし3のいずれかに記載の携帯電話機。
- 前記所定画面は、ロック画面を含む、請求項1ないし4のいずれかに記載の携帯電話機。
- 前記表示部に設けられるタッチパネル、および
前記判断部によって対象物の近接を検出したと判断されたとき、前記タッチパネルに基づく操作を無効にする無効部をさらに備える、請求項1ないし5のいずれかに記載の携帯電話機。 - 表示部および対象物の近接を検出する検出部を有する、携帯電話機のプロセッサを、
前記表示部に所定画面が表示されているときに前記検出部が対象物の近接を検出したかを判断する判断部、
前記判断部によって対象物の近接を検出したと判断されたとき、対象物の近接が検出されている間に入力された音声を認識する音声認識部、および
前記音声認識部の認識結果によって発呼が指示された場合には、当該認識結果に基づき発呼する発呼部として機能させる、音声操作プログラム。 - 表示部および対象物の近接を検出する検出部を有する、携帯電話機における音声操作方法であって、前記携帯電話機のプロセッサが、
前記表示部に所定画面が表示されているときに前記検出部が対象物の近接を検出したかを判断する判断ステップ、
前記判断ステップによって対象物の近接を検出したと判断されたとき、対象物の近接が検出されている間に入力された音声を認識する音声認識ステップ、および
前記音声認識ステップの認識結果によって発呼が指示された場合には、当該認識結果に基づき発呼する発呼ステップを実行する、音声操作方法。 - 表示部を有する、携帯端末であって、
対象物の近接を検出する検出部、
前記表示部に所定画面が表示されているときに前記検出部が対象物の近接を検出したかを判断する判断部、
前記判断部によって対象物の近接を検出したと判断されたとき、対象物の近接が検出されている間に入力された音声を認識する音声認識部、および
前記音声認識部の認識結果が有効な場合には、当該認識結果に基づき機能を実行する実行部を備える、携帯端末。 - 前記所定画面に対応する機能を示す機能情報を記憶する記憶部、および
前記記憶部によって記憶された機能情報に基づいて機能を特定する第1特定部をさらに備え、
前記実行部は、前記音声認識部の認識結果に基づいて前記第1特定部によって特定された機能を実行する、請求項9記載の携帯端末。 - 前記所定画面は、ロック画面を含み、
前記ロック画面が表示されているときに対象物の近接が検出されているとき、前記音声認識部の認識結果から機能を示す情報を抽出する抽出部、および
前記抽出部によって抽出された情報に基づいて機能を特定する第2特定部をさらに備え、
前記実行部は、前記音声認識部の認識結果に基づいて前記第2特定部によって特定された機能を実行する、請求項9または10記載の携帯端末。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013133646A JP2015012301A (ja) | 2013-06-26 | 2013-06-26 | 携帯電話機、携帯端末、音声操作プログラムおよび音声操作方法 |
PCT/JP2014/066983 WO2014208665A1 (ja) | 2013-06-26 | 2014-06-26 | 携帯電話機、携帯端末および音声操作方法 |
US14/983,297 US20160112554A1 (en) | 2013-06-26 | 2015-12-29 | Mobile phone, mobile terminal, and voice operation method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013133646A JP2015012301A (ja) | 2013-06-26 | 2013-06-26 | 携帯電話機、携帯端末、音声操作プログラムおよび音声操作方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015012301A true JP2015012301A (ja) | 2015-01-19 |
Family
ID=52141991
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013133646A Pending JP2015012301A (ja) | 2013-06-26 | 2013-06-26 | 携帯電話機、携帯端末、音声操作プログラムおよび音声操作方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20160112554A1 (ja) |
JP (1) | JP2015012301A (ja) |
WO (1) | WO2014208665A1 (ja) |
Cited By (56)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018523102A (ja) * | 2015-05-27 | 2018-08-16 | アップル インコーポレイテッド | 関連コンテンツを先見的に特定し、タッチ感知デバイス上に表面化させるためのシステム及び方法 |
JPWO2018079379A1 (ja) * | 2016-10-27 | 2019-07-25 | 株式会社Nttドコモ | 通信端末装置、プログラム及び情報処理方法 |
US10827330B2 (en) | 2015-05-27 | 2020-11-03 | Apple Inc. | Systems and methods for proactively identifying and surfacing relevant content on an electronic device with a touch-sensitive display |
US10971143B2 (en) | 2017-09-29 | 2021-04-06 | Samsung Electronics Co., Ltd. | Input device, electronic device, system comprising the same and control method thereof |
US10978090B2 (en) | 2013-02-07 | 2021-04-13 | Apple Inc. | Voice trigger for a digital assistant |
US10984798B2 (en) | 2018-06-01 | 2021-04-20 | Apple Inc. | Voice interaction at a primary device to access call functionality of a companion device |
US11009970B2 (en) | 2018-06-01 | 2021-05-18 | Apple Inc. | Attention aware virtual assistant dismissal |
US11037565B2 (en) | 2016-06-10 | 2021-06-15 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
US11087759B2 (en) | 2015-03-08 | 2021-08-10 | Apple Inc. | Virtual assistant activation |
US11120372B2 (en) | 2011-06-03 | 2021-09-14 | Apple Inc. | Performing actions associated with task items that represent tasks to perform |
US11126400B2 (en) | 2015-09-08 | 2021-09-21 | Apple Inc. | Zero latency digital assistant |
US11133008B2 (en) | 2014-05-30 | 2021-09-28 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US11152002B2 (en) | 2016-06-11 | 2021-10-19 | Apple Inc. | Application integration with a digital assistant |
US11169616B2 (en) | 2018-05-07 | 2021-11-09 | Apple Inc. | Raise to speak |
JP2022009571A (ja) * | 2017-06-13 | 2022-01-14 | グーグル エルエルシー | 登録されていないリソースによるオーディオベースのネットワークセッションの確立 |
US11237797B2 (en) | 2019-05-31 | 2022-02-01 | Apple Inc. | User activity shortcut suggestions |
US11257504B2 (en) | 2014-05-30 | 2022-02-22 | Apple Inc. | Intelligent assistant for home automation |
US11321116B2 (en) | 2012-05-15 | 2022-05-03 | Apple Inc. | Systems and methods for integrating third party services with a digital assistant |
US11348582B2 (en) | 2008-10-02 | 2022-05-31 | Apple Inc. | Electronic devices with voice command and contextual data processing capabilities |
US11380310B2 (en) | 2017-05-12 | 2022-07-05 | Apple Inc. | Low-latency intelligent automated assistant |
US11388291B2 (en) | 2013-03-14 | 2022-07-12 | Apple Inc. | System and method for processing voicemail |
US11405466B2 (en) | 2017-05-12 | 2022-08-02 | Apple Inc. | Synchronization and task delegation of a digital assistant |
US11423886B2 (en) | 2010-01-18 | 2022-08-23 | Apple Inc. | Task flow identification based on user intent |
US11431642B2 (en) | 2018-06-01 | 2022-08-30 | Apple Inc. | Variable latency device coordination |
US11467802B2 (en) | 2017-05-11 | 2022-10-11 | Apple Inc. | Maintaining privacy of personal information |
US11500672B2 (en) | 2015-09-08 | 2022-11-15 | Apple Inc. | Distributed personal assistant |
US11516537B2 (en) | 2014-06-30 | 2022-11-29 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US11526368B2 (en) | 2015-11-06 | 2022-12-13 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US11532306B2 (en) | 2017-05-16 | 2022-12-20 | Apple Inc. | Detecting a trigger of a digital assistant |
US11580990B2 (en) | 2017-05-12 | 2023-02-14 | Apple Inc. | User-specific acoustic models |
US11599331B2 (en) | 2017-05-11 | 2023-03-07 | Apple Inc. | Maintaining privacy of personal information |
US11657813B2 (en) | 2019-05-31 | 2023-05-23 | Apple Inc. | Voice identification in digital assistant systems |
US11671920B2 (en) | 2007-04-03 | 2023-06-06 | Apple Inc. | Method and system for operating a multifunction portable electronic device using voice-activation |
US11670289B2 (en) | 2014-05-30 | 2023-06-06 | Apple Inc. | Multi-command single utterance input method |
US11675829B2 (en) | 2017-05-16 | 2023-06-13 | Apple Inc. | Intelligent automated assistant for media exploration |
US11675491B2 (en) | 2019-05-06 | 2023-06-13 | Apple Inc. | User configurable task triggers |
US11696060B2 (en) | 2020-07-21 | 2023-07-04 | Apple Inc. | User identification using headphones |
US11705130B2 (en) | 2019-05-06 | 2023-07-18 | Apple Inc. | Spoken notifications |
US11710482B2 (en) | 2018-03-26 | 2023-07-25 | Apple Inc. | Natural assistant interaction |
US11727219B2 (en) | 2013-06-09 | 2023-08-15 | Apple Inc. | System and method for inferring user intent from speech inputs |
US11755276B2 (en) | 2020-05-12 | 2023-09-12 | Apple Inc. | Reducing description length based on confidence |
US11765209B2 (en) | 2020-05-11 | 2023-09-19 | Apple Inc. | Digital assistant hardware abstraction |
US11783815B2 (en) | 2019-03-18 | 2023-10-10 | Apple Inc. | Multimodality in digital assistant systems |
US11790914B2 (en) | 2019-06-01 | 2023-10-17 | Apple Inc. | Methods and user interfaces for voice-based control of electronic devices |
US11798547B2 (en) | 2013-03-15 | 2023-10-24 | Apple Inc. | Voice activated device for use with a voice-based digital assistant |
US11809783B2 (en) | 2016-06-11 | 2023-11-07 | Apple Inc. | Intelligent device arbitration and control |
US11809483B2 (en) | 2015-09-08 | 2023-11-07 | Apple Inc. | Intelligent automated assistant for media search and playback |
US11838734B2 (en) | 2020-07-20 | 2023-12-05 | Apple Inc. | Multi-device audio adjustment coordination |
US11854539B2 (en) | 2018-05-07 | 2023-12-26 | Apple Inc. | Intelligent automated assistant for delivering content from user experiences |
US11853647B2 (en) | 2015-12-23 | 2023-12-26 | Apple Inc. | Proactive assistance based on dialog communication between devices |
US11853536B2 (en) | 2015-09-08 | 2023-12-26 | Apple Inc. | Intelligent automated assistant in a media environment |
US11888791B2 (en) | 2019-05-21 | 2024-01-30 | Apple Inc. | Providing message response suggestions |
US11886805B2 (en) | 2015-11-09 | 2024-01-30 | Apple Inc. | Unconventional virtual assistant interactions |
US11893992B2 (en) | 2018-09-28 | 2024-02-06 | Apple Inc. | Multi-modal inputs for voice commands |
US11914848B2 (en) | 2020-05-11 | 2024-02-27 | Apple Inc. | Providing relevant data items based on context |
US11947873B2 (en) | 2015-06-29 | 2024-04-02 | Apple Inc. | Virtual assistant for media playback |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6397056B2 (ja) * | 2015-01-16 | 2018-09-26 | 株式会社Nttドコモ | 通信端末装置、発呼制御方法、及びプログラム |
JP6331240B2 (ja) * | 2015-11-05 | 2018-05-30 | コニカミノルタ株式会社 | 通信システム |
JP6727036B2 (ja) * | 2016-06-01 | 2020-07-22 | キヤノン株式会社 | 電子機器、その制御方法、プログラム及び記録媒体 |
US10698582B2 (en) | 2018-06-28 | 2020-06-30 | International Business Machines Corporation | Controlling voice input based on proximity of persons |
CN117351956A (zh) * | 2023-12-05 | 2024-01-05 | 广州一链通互联网科技有限公司 | 货运轨迹生成及查询方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000115334A (ja) * | 1998-10-09 | 2000-04-21 | Nec Saitama Ltd | 携帯電話端末 |
JP2003501959A (ja) * | 1999-06-07 | 2003-01-14 | テレフオンアクチーボラゲット エル エム エリクソン(パブル) | 音声制御による動作を制御するための装置および方法 |
US20110080260A1 (en) * | 2009-10-01 | 2011-04-07 | Htc Corporation | Method and computer program product of switching locked state of electronic device |
JP2012095070A (ja) * | 2010-10-27 | 2012-05-17 | Kyocera Corp | 携帯電話機およびその制御プログラム |
JP2013045470A (ja) * | 2011-08-25 | 2013-03-04 | Samsung Electronics Co Ltd | タッチスクリーン装置のロック解除装置及び方法 |
JP2013093698A (ja) * | 2011-10-25 | 2013-05-16 | Kyocera Corp | 携帯端末、ロック制御プログラムおよびロック制御方法 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0618395B2 (ja) * | 1986-12-26 | 1994-03-09 | 株式会社日立製作所 | 音声ダイヤル装置 |
DE3885683T2 (de) * | 1987-09-11 | 1994-03-10 | Toshiba Kawasaki Kk | Telefonapparat. |
US8994499B2 (en) * | 2011-03-16 | 2015-03-31 | Apple Inc. | Locking and unlocking a mobile device using facial recognition |
US9596084B2 (en) * | 2011-09-09 | 2017-03-14 | Facebook, Inc. | Initializing camera subsystem for face detection based on sensor inputs |
US20130215250A1 (en) * | 2012-02-16 | 2013-08-22 | Research In Motion Limited | Portable electronic device and method |
KR101995428B1 (ko) * | 2012-11-20 | 2019-07-02 | 엘지전자 주식회사 | 이동 단말기 및 그 제어방법 |
US9723118B2 (en) * | 2012-12-06 | 2017-08-01 | Blackberry Limited | Method of identifying contacts for initiating a communication using speech recognition |
KR102075117B1 (ko) * | 2013-04-22 | 2020-02-07 | 삼성전자주식회사 | 사용자 기기 및 그 동작 방법 |
-
2013
- 2013-06-26 JP JP2013133646A patent/JP2015012301A/ja active Pending
-
2014
- 2014-06-26 WO PCT/JP2014/066983 patent/WO2014208665A1/ja active Application Filing
-
2015
- 2015-12-29 US US14/983,297 patent/US20160112554A1/en not_active Abandoned
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000115334A (ja) * | 1998-10-09 | 2000-04-21 | Nec Saitama Ltd | 携帯電話端末 |
JP2003501959A (ja) * | 1999-06-07 | 2003-01-14 | テレフオンアクチーボラゲット エル エム エリクソン(パブル) | 音声制御による動作を制御するための装置および方法 |
US20110080260A1 (en) * | 2009-10-01 | 2011-04-07 | Htc Corporation | Method and computer program product of switching locked state of electronic device |
JP2012095070A (ja) * | 2010-10-27 | 2012-05-17 | Kyocera Corp | 携帯電話機およびその制御プログラム |
JP2013045470A (ja) * | 2011-08-25 | 2013-03-04 | Samsung Electronics Co Ltd | タッチスクリーン装置のロック解除装置及び方法 |
JP2013093698A (ja) * | 2011-10-25 | 2013-05-16 | Kyocera Corp | 携帯端末、ロック制御プログラムおよびロック制御方法 |
Cited By (82)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11979836B2 (en) | 2007-04-03 | 2024-05-07 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
US11671920B2 (en) | 2007-04-03 | 2023-06-06 | Apple Inc. | Method and system for operating a multifunction portable electronic device using voice-activation |
US11348582B2 (en) | 2008-10-02 | 2022-05-31 | Apple Inc. | Electronic devices with voice command and contextual data processing capabilities |
US11900936B2 (en) | 2008-10-02 | 2024-02-13 | Apple Inc. | Electronic devices with voice command and contextual data processing capabilities |
US11423886B2 (en) | 2010-01-18 | 2022-08-23 | Apple Inc. | Task flow identification based on user intent |
US11120372B2 (en) | 2011-06-03 | 2021-09-14 | Apple Inc. | Performing actions associated with task items that represent tasks to perform |
US11321116B2 (en) | 2012-05-15 | 2022-05-03 | Apple Inc. | Systems and methods for integrating third party services with a digital assistant |
US11557310B2 (en) | 2013-02-07 | 2023-01-17 | Apple Inc. | Voice trigger for a digital assistant |
US11636869B2 (en) | 2013-02-07 | 2023-04-25 | Apple Inc. | Voice trigger for a digital assistant |
US10978090B2 (en) | 2013-02-07 | 2021-04-13 | Apple Inc. | Voice trigger for a digital assistant |
US11862186B2 (en) | 2013-02-07 | 2024-01-02 | Apple Inc. | Voice trigger for a digital assistant |
US11388291B2 (en) | 2013-03-14 | 2022-07-12 | Apple Inc. | System and method for processing voicemail |
US11798547B2 (en) | 2013-03-15 | 2023-10-24 | Apple Inc. | Voice activated device for use with a voice-based digital assistant |
US11727219B2 (en) | 2013-06-09 | 2023-08-15 | Apple Inc. | System and method for inferring user intent from speech inputs |
US11810562B2 (en) | 2014-05-30 | 2023-11-07 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US11670289B2 (en) | 2014-05-30 | 2023-06-06 | Apple Inc. | Multi-command single utterance input method |
US11257504B2 (en) | 2014-05-30 | 2022-02-22 | Apple Inc. | Intelligent assistant for home automation |
US11133008B2 (en) | 2014-05-30 | 2021-09-28 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US11699448B2 (en) | 2014-05-30 | 2023-07-11 | Apple Inc. | Intelligent assistant for home automation |
US11838579B2 (en) | 2014-06-30 | 2023-12-05 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US11516537B2 (en) | 2014-06-30 | 2022-11-29 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US11842734B2 (en) | 2015-03-08 | 2023-12-12 | Apple Inc. | Virtual assistant activation |
US11087759B2 (en) | 2015-03-08 | 2021-08-10 | Apple Inc. | Virtual assistant activation |
US11070949B2 (en) | 2015-05-27 | 2021-07-20 | Apple Inc. | Systems and methods for proactively identifying and surfacing relevant content on an electronic device with a touch-sensitive display |
JP2018523102A (ja) * | 2015-05-27 | 2018-08-16 | アップル インコーポレイテッド | 関連コンテンツを先見的に特定し、タッチ感知デバイス上に表面化させるためのシステム及び方法 |
US10827330B2 (en) | 2015-05-27 | 2020-11-03 | Apple Inc. | Systems and methods for proactively identifying and surfacing relevant content on an electronic device with a touch-sensitive display |
US11947873B2 (en) | 2015-06-29 | 2024-04-02 | Apple Inc. | Virtual assistant for media playback |
US11550542B2 (en) | 2015-09-08 | 2023-01-10 | Apple Inc. | Zero latency digital assistant |
US11500672B2 (en) | 2015-09-08 | 2022-11-15 | Apple Inc. | Distributed personal assistant |
US11809483B2 (en) | 2015-09-08 | 2023-11-07 | Apple Inc. | Intelligent automated assistant for media search and playback |
US11126400B2 (en) | 2015-09-08 | 2021-09-21 | Apple Inc. | Zero latency digital assistant |
US11853536B2 (en) | 2015-09-08 | 2023-12-26 | Apple Inc. | Intelligent automated assistant in a media environment |
US11954405B2 (en) | 2015-09-08 | 2024-04-09 | Apple Inc. | Zero latency digital assistant |
US11526368B2 (en) | 2015-11-06 | 2022-12-13 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US11809886B2 (en) | 2015-11-06 | 2023-11-07 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US11886805B2 (en) | 2015-11-09 | 2024-01-30 | Apple Inc. | Unconventional virtual assistant interactions |
US11853647B2 (en) | 2015-12-23 | 2023-12-26 | Apple Inc. | Proactive assistance based on dialog communication between devices |
US11657820B2 (en) | 2016-06-10 | 2023-05-23 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
US11037565B2 (en) | 2016-06-10 | 2021-06-15 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
US11152002B2 (en) | 2016-06-11 | 2021-10-19 | Apple Inc. | Application integration with a digital assistant |
US11809783B2 (en) | 2016-06-11 | 2023-11-07 | Apple Inc. | Intelligent device arbitration and control |
US11749275B2 (en) | 2016-06-11 | 2023-09-05 | Apple Inc. | Application integration with a digital assistant |
JPWO2018079379A1 (ja) * | 2016-10-27 | 2019-07-25 | 株式会社Nttドコモ | 通信端末装置、プログラム及び情報処理方法 |
US11599331B2 (en) | 2017-05-11 | 2023-03-07 | Apple Inc. | Maintaining privacy of personal information |
US11467802B2 (en) | 2017-05-11 | 2022-10-11 | Apple Inc. | Maintaining privacy of personal information |
US11405466B2 (en) | 2017-05-12 | 2022-08-02 | Apple Inc. | Synchronization and task delegation of a digital assistant |
US11538469B2 (en) | 2017-05-12 | 2022-12-27 | Apple Inc. | Low-latency intelligent automated assistant |
US11862151B2 (en) | 2017-05-12 | 2024-01-02 | Apple Inc. | Low-latency intelligent automated assistant |
US11380310B2 (en) | 2017-05-12 | 2022-07-05 | Apple Inc. | Low-latency intelligent automated assistant |
US11580990B2 (en) | 2017-05-12 | 2023-02-14 | Apple Inc. | User-specific acoustic models |
US11837237B2 (en) | 2017-05-12 | 2023-12-05 | Apple Inc. | User-specific acoustic models |
US11532306B2 (en) | 2017-05-16 | 2022-12-20 | Apple Inc. | Detecting a trigger of a digital assistant |
US11675829B2 (en) | 2017-05-16 | 2023-06-13 | Apple Inc. | Intelligent automated assistant for media exploration |
JP7339310B2 (ja) | 2017-06-13 | 2023-09-05 | グーグル エルエルシー | 登録されていないリソースによるオーディオベースのネットワークセッションの確立 |
JP2022009571A (ja) * | 2017-06-13 | 2022-01-14 | グーグル エルエルシー | 登録されていないリソースによるオーディオベースのネットワークセッションの確立 |
US10971143B2 (en) | 2017-09-29 | 2021-04-06 | Samsung Electronics Co., Ltd. | Input device, electronic device, system comprising the same and control method thereof |
US11710482B2 (en) | 2018-03-26 | 2023-07-25 | Apple Inc. | Natural assistant interaction |
US11487364B2 (en) | 2018-05-07 | 2022-11-01 | Apple Inc. | Raise to speak |
US11854539B2 (en) | 2018-05-07 | 2023-12-26 | Apple Inc. | Intelligent automated assistant for delivering content from user experiences |
US11907436B2 (en) | 2018-05-07 | 2024-02-20 | Apple Inc. | Raise to speak |
US11900923B2 (en) | 2018-05-07 | 2024-02-13 | Apple Inc. | Intelligent automated assistant for delivering content from user experiences |
US11169616B2 (en) | 2018-05-07 | 2021-11-09 | Apple Inc. | Raise to speak |
US11360577B2 (en) | 2018-06-01 | 2022-06-14 | Apple Inc. | Attention aware virtual assistant dismissal |
US11431642B2 (en) | 2018-06-01 | 2022-08-30 | Apple Inc. | Variable latency device coordination |
US10984798B2 (en) | 2018-06-01 | 2021-04-20 | Apple Inc. | Voice interaction at a primary device to access call functionality of a companion device |
US11009970B2 (en) | 2018-06-01 | 2021-05-18 | Apple Inc. | Attention aware virtual assistant dismissal |
US11630525B2 (en) | 2018-06-01 | 2023-04-18 | Apple Inc. | Attention aware virtual assistant dismissal |
US11893992B2 (en) | 2018-09-28 | 2024-02-06 | Apple Inc. | Multi-modal inputs for voice commands |
US11783815B2 (en) | 2019-03-18 | 2023-10-10 | Apple Inc. | Multimodality in digital assistant systems |
US11675491B2 (en) | 2019-05-06 | 2023-06-13 | Apple Inc. | User configurable task triggers |
US11705130B2 (en) | 2019-05-06 | 2023-07-18 | Apple Inc. | Spoken notifications |
US11888791B2 (en) | 2019-05-21 | 2024-01-30 | Apple Inc. | Providing message response suggestions |
US11237797B2 (en) | 2019-05-31 | 2022-02-01 | Apple Inc. | User activity shortcut suggestions |
US11657813B2 (en) | 2019-05-31 | 2023-05-23 | Apple Inc. | Voice identification in digital assistant systems |
US11790914B2 (en) | 2019-06-01 | 2023-10-17 | Apple Inc. | Methods and user interfaces for voice-based control of electronic devices |
US11765209B2 (en) | 2020-05-11 | 2023-09-19 | Apple Inc. | Digital assistant hardware abstraction |
US11914848B2 (en) | 2020-05-11 | 2024-02-27 | Apple Inc. | Providing relevant data items based on context |
US11924254B2 (en) | 2020-05-11 | 2024-03-05 | Apple Inc. | Digital assistant hardware abstraction |
US11755276B2 (en) | 2020-05-12 | 2023-09-12 | Apple Inc. | Reducing description length based on confidence |
US11838734B2 (en) | 2020-07-20 | 2023-12-05 | Apple Inc. | Multi-device audio adjustment coordination |
US11696060B2 (en) | 2020-07-21 | 2023-07-04 | Apple Inc. | User identification using headphones |
US11750962B2 (en) | 2020-07-21 | 2023-09-05 | Apple Inc. | User identification using headphones |
Also Published As
Publication number | Publication date |
---|---|
US20160112554A1 (en) | 2016-04-21 |
WO2014208665A1 (ja) | 2014-12-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2014208665A1 (ja) | 携帯電話機、携帯端末および音声操作方法 | |
JP5922522B2 (ja) | 携帯端末 | |
JP5739303B2 (ja) | 携帯端末、ロック制御プログラムおよびロック制御方法 | |
US10481773B2 (en) | Mobile terminal, memory, and folder control method | |
US9639222B2 (en) | Mobile terminal capable of sensing proximity touch | |
JP5883745B2 (ja) | 携帯端末、カーソル位置制御プログラムおよびカーソル位置制御方法 | |
WO2013061783A1 (ja) | 携帯端末およびロック制御方法 | |
KR101947458B1 (ko) | 메시지 관리 방법 및 장치 | |
US10261686B2 (en) | Mobile terminal and control method thereof | |
JP5986484B2 (ja) | 携帯端末、ロック状態制御プログラムおよびロック状態制御方法 | |
JP6088356B2 (ja) | 携帯端末、表示制御プログラムおよび表示制御方法 | |
US10152224B2 (en) | Mobile terminal, non-transitory computer readable storage medium, and method for setting invalid area | |
KR20080068491A (ko) | 터치 방식 정보 입력 단말기 및 그 방법 | |
JP5743847B2 (ja) | 携帯端末および低感度領域設定プログラム | |
JP5846887B2 (ja) | 携帯端末、編集制御プログラムおよび編集制御方法 | |
JP6059114B2 (ja) | 携帯端末、結合制御プログラムおよび結合制御方法 | |
US9423927B2 (en) | Managing user interface elements using gestures | |
JP2011008435A (ja) | 携帯端末、言語設定プログラムおよび言語設定方法 | |
JP7004621B2 (ja) | 電子機器、制御方法、及び制御プログラム | |
KR101218820B1 (ko) | 터치 방식 정보 입력 단말기 및 그 방법 | |
JP6139138B2 (ja) | 携帯通信端末、送信制御プログラムおよび送信制御方法 | |
JP2012231244A (ja) | 携帯端末、ロック解除プログラムおよびロック解除方法 | |
JP2015144492A (ja) | 携帯端末、ロック制御プログラムおよびロック制御方法 | |
CN107491251B (zh) | 移动终端及指纹控制方法 | |
JP2018005956A (ja) | 携帯端末、フォルダ制御プログラムおよびフォルダ制御方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160115 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170404 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170529 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20170919 |