JP2016122980A - タッチスクリーン付情報処理端末、情報処理方法および情報処理プログラム - Google Patents

タッチスクリーン付情報処理端末、情報処理方法および情報処理プログラム Download PDF

Info

Publication number
JP2016122980A
JP2016122980A JP2014261805A JP2014261805A JP2016122980A JP 2016122980 A JP2016122980 A JP 2016122980A JP 2014261805 A JP2014261805 A JP 2014261805A JP 2014261805 A JP2014261805 A JP 2014261805A JP 2016122980 A JP2016122980 A JP 2016122980A
Authority
JP
Japan
Prior art keywords
voice
touch screen
information processing
touch
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014261805A
Other languages
English (en)
Inventor
直行 玉井
Naoyuki Tamai
直行 玉井
朋弘 嶋津
Tomohiro Shimazu
朋弘 嶋津
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2014261805A priority Critical patent/JP2016122980A/ja
Priority to PCT/JP2015/086366 priority patent/WO2016104766A1/ja
Publication of JP2016122980A publication Critical patent/JP2016122980A/ja
Priority to US15/629,514 priority patent/US20170286061A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0489Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using dedicated keyboard keys or combinations thereof
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification
    • G10L17/22Interactive procedures; Man-machine interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/38Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
    • H04B1/3827Portable transceivers
    • H04B1/3833Hand-held transceivers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/66Substation equipment, e.g. for use by subscribers with means for preventing unauthorised or fraudulent calling
    • H04M1/667Preventing unauthorised calls from a telephone set
    • H04M1/67Preventing unauthorised calls from a telephone set by electronic means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones

Abstract

【解決手段】携帯電話機10はタッチスクリーン18を含む。タッチスクリーン上の機能表示部106に、タッチ入力によって操作可能な、タッチ可能オブジェクト106a‐106iが表示され、これらのオブジェクトのうち可読文字が付与されていないオブジェクトには、可読文字を含む可読マーク108が付加される。スピーカ切り替えキー24dを押した状態でマイク22から音声を入力すると、その音声が識別される。入力された音声が、オブジェクトの可読文字または可読マークの可読文字に相当するとき、該当するオブジェクトの機能を実行できる。
【効果】タッチ可能オブジェクトを音声入力によって操作できるので、確実に所望の操作を実行することができる。
【選択図】図4

Description

この発明は、タッチスクリーン付情報処理端末、情報処理方法および情報処理プログラムに関し、特にたとえばタッチスクリーン上に表示されているタッチ入力によって操作可能なオブジェクト(タイルないしアイコン、仮想(ソフト)キーなどを含む。)を音声(ボイス)で操作する、新規なタッチスクリーン付情報処理端末、情報処理方法および情報処理プログラムに関する。
背景技術の一例が特許文献1に開示されている。この特許文献1の携帯電話機では、メール着信があったとき、「読んで」と音声入力をすれば、メールを読み上げるものである。ただし、この背景技術は、音声によってオブジェクトを操作する技術ではない。
非特許文献1には、音声によって、携帯電話機に依頼することができる機能「Siri」(商品名)が記載されている。たとえば、「山田一郎さんに電話」のように、音声によって指示を入力すると、携帯電話機はその音声指示を解釈して、必要な動作を実行して所望の結果をユーザに提供する。
特開2005-268975号公報[H04M 1/00、G06F 13/00]
http://manuals.info.apple.com/MANUALS/1000/MA1565/ja_JP/iphone_user_guide_j.pdf
非特許文献1の技術によれば、携帯電話機をユーザが直接操作しなくても、所望の結果が得られるので、便利である。
しかしながら、たとえば上記の例において、電話帳の登録名が「山田一郎」ではなく名を省略したたとえば「山田さん」である場合には、携帯電話機は指示音声にある「山田一郎」を電話帳から見つけることができず、結局その指示に応えられないという結果を生じる可能性がある。つまり、携帯電話機が理解できるような音声入力がなければ、確実な操作ができないという問題がある。
それゆえに、この発明の主たる目的は、新規な、タッチスクリーン付情報処理端末、情報処理方法および情報処理プログラムを提供することである。
この発明の他の目的は、音声入力によって確実に操作できる、タッチスクリーン付情報処理端末、情報処理方法および情報処理プログラムを提供することである。
この発明の態様は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明等は、この発明の理解を助けるために記述する実施形態との対応関係を示したものであって、この発明を何ら限定するものではない。
本発明の第1の態様によるタッチスクリーン付情報端末は、マイクと、電源キーを含む複数のキーを含み、タッチスクリーン上に表示されたタッチ可能オブジェクトをタッチ入力によって操作したときそのオブジェクトの機能を実行する実行部を備える、タッチスクリーン付情報処理端末であって、特定のモードが設定されているときにマイクから入力された音声を認識する音声認識部、および音声認識部が認識した音声がタッチ可能オブジェクトを指示するかどうか判断する判断部を備え、実行部は、判断部によって音声がタッチ可能オブジェクトを指示すると判断したとき、そのオブジェクトの機能を実行する、タッチスクリーン付情報処理端末である。
第1の態様では、タッチスクリーン付情報処理端末(10:実施例において相当する参照番号の例示である。以下同様。)は、マイク(22)と、電源キーを含む複数のキー(24a‐24h)と、タッチスクリーン(18)を含む。ホーム画面やアプリケーション画面においては、タッチスクリーン(18)上にタッチ可能オブジェクト(106a‐106i、112a‐112iなど)を表示する。これらのタッチ可能オブジェクトをタッチ入力によって操作したとき、実行部(30、302d、S43、S63)は、タッチ入力によって操作されたオブジェクトに割り付けられた機能を実行する。たとえば、スピーカ切り替えキー(24d)のような特定のキーを押し続けると、音声操作モードが設定される。音声操作モードにおいて、ユーザがマイク(22)から音声を入力すると、音声認識部(30、302c、S39、S59)がその音声を認識する。そして、判断部(30、302c、S41、S61)が、音声認識部が認識した音声がタッチ可能オブジェクトを指示すると判断すると、実行部は、そのオブジェクトの機能を実行する。
第1の態様によれば、タッチスクリーン上に表示されたタッチ可能オブジェクトを音声入力によって操作するようにしているので、タッチ入力によってタッチ可能オブジェクトを操作する場合と同様に、オブジェクトを確実に操作できる。
本発明の第2の態様は、は、第1の態様に従属し、タッチ可能オブジェクトが可読文字を含むとき、判断部は音声が可読文字に該当するかどうか判断する、タッチスクリーン付情報処理端末である。
第2の態様では、オブジェクトが可読文字を含むか、もしくはオブジェクトが可読文字とともに表示されているときには、判断部は、入力された音声が、オブジェクトに含まれるかオブジェクトに関連して表示される可読文字に相当するかどうか判断する。
第2の態様によれば、大部分のオブジェクトは可読文字を含みまたは可読文字とともにタッチスクリーン上に表示されるので、音声入力に関連する機能を追加するだけで、実現できる。
本発明の第3の態様は、第1または第2の態様に従属し、タッチ可能オブジェクトに、可読文字を含む可読マークを付加する付加部をさらに備え、判断部は音声が可読マークに含まれる可読文字に該当するかどうか判断する、タッチスクリーン付情報処理端末である。
第3の態様では、付加部(30、302c、S31、S51)は、可読文字を含まないオブジェクトまたは可読文字とともに表示されていないオブジェクト、さらには人前で読み上げることがプライバシーに関わるようなオブジェクトに対して、可読マーク(108、114a‐114c、114a‐114cなど)を付加する。したがって、判断部は、入力された音声が可読マークに含まれる可読文字に該当するかどうか判断する。
第3の態様によれば、たとえば可読文字を含まないオブジェクトであっても、可読マークを付加することによって、そのオブジェクトを音声入力によって確実に操作できる。
本発明の第4の態様は、第1ないし第3のいずれかの態様に従属し、ロック解除画面が表示されている状態において、音声認識部が認識した音声がロック解除のための正しい音声に該当するかどうか判断する第2判断部、および第2判断部が、音声がロック解除のための正しい音声に該当すると判断したとき、ロック状態を解除するロック解除部をさらに備える、タッチスクリーン付情報処理端末。
第4の態様では、第2判断部(30、302a、S13)は、たとえばスピーカ切り替えキー(24d)を押し続けているときに音声認識部が認識した音声がロック解除のための正しい音声(たとえば、「Smart Device」:スマートデバイス)に該当するかどうか判断する。そして、第2判断部が、音声がロック解除のための正しい音声に該当すると判断したとき、ロック解除部(30、302a、S15)ロック状態を解除して、たとえばホーム画面を表示する。
第4の態様によれば、音声入力によってロック状態を解除することができる。
本発明の第5の態様は、第1ないし第4のいずれかの態様に従属し、特定のモードは、特定のハードウェアキーの操作に応じて設定される、タッチスクリーン付情報処理端末である。
第5の態様では、スピーカ切り替えキー(24d)のような特定のキーを操作することによって、音声入力によってタッチ可能オブジェクトを操作する特定のモードが設定できる。
第5の態様によれば、特定のキーの操作で特定のモードを簡単に設定できる。
本発明の第6の態様は、マイク(22)と、電源キーを含む複数のキー(24a‐24h)を含み、タッチスクリーン(18)上に表示されたタッチ可能オブジェクトをタッチ入力によって操作したときそのオブジェクトの機能を実行する実行部(30、302d、S43、S63)を備える、タッチスクリーン付情報処理端末(10)のプロセサ(30)が次のステップを実行する情報処理方法であって、特定のモードが設定されているときにマイクから入力された音声を認識する音声認識ステップ(S39、S59)、および音声認識ステップにおいて認識した音声がタッチ可能オブジェクトを指示するかどうか判断する判断ステップ(S41、S61)を備え、実行部は、判断ステップによって音声がタッチ可能オブジェクトを指示すると判断したとき、そのオブジェクトの機能を実行する、情報処理方法である。
本発明の第7の態様は、マイク(22)と、電源キーを含む複数のキー(24a‐24h)を含み、タッチスクリーン(18)上に表示されたタッチ可能オブジェクトをタッチ入力によって操作したときそのオブジェクトの機能を実行する実行部(30、302d、S43、S63)を備える、タッチスクリーン付情報処理端末(10)のプロセサ(30)を、特定のモードが設定されているときにマイクから入力された音声を認識する音声認識部(30、302c、S39、S59)、および音声認識部が認識した音声がタッチ可能オブジェクトを指示するかどうか判断する判断部(30、302c、S41、S61)して機能させ、実行部によって、判断部によって音声がタッチ可能オブジェクトを指示すると判断したとき、そのオブジェクトの機能を実行させる、情報処理プログラムである。
第6および第7の発明によっても、第1の発明と同様の効果が期待できる。
この発明の一態様によれば、タッチスクリーン上に表示されたタッチ可能オブジェクトを音声入力によって操作するようにしているので、タッチ入力によってタッチ可能オブジェクトを操作する場合と同様に、オブジェクトをより確実に操作できる。
また、オブジェクトに可読マークを付加するようにすれば、たとえば可読文字を持たないオブジェクトであっても、音声入力によってより確実に操作することができる。
この発明の上述の目的、その他の目的、特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
図1はこの発明の一実施例の携帯電話機を示す外観図を示す。 図2は図1に示す携帯電話機の電気的な構成を示すブロック図である。 図3はタッチスクリーンに表示されるロック解除画面の一例を示す概略図である。 図4はタッチスクリーンに表示されるホーム画面の一例を示す概略図である。 図5はタッチスクリーンに表示される連絡先画面の一例を示す概略図である。 図6はタッチスクリーンに表示される連絡先画面の次の例を示す概略図である。 図7はタッチスクリーンに表示される呼び出し画面の一例を示す概略図である。 図8は図2に示すRAMのメモリマップの一例を示す概略図である。 図9は図1に示す携帯電話機におけるロック解除の操作を示すフロー図である。 図10は図1に示す携帯電話機におけるホーム画面上での操作を示すフロー図である。 図11は図1に示す携帯電話機におけるアプリケーション画面上での操作を示すフロー図である。 図12はタッチスクリーンに表示されるホーム画面の他の例を示す概略図である。 図13はタッチスクリーンに表示されるアプリケーション画面の他の例を示す概略図である。
図1を参照して、この発明の一実施例の携帯電話機10は、一例としてスマートフォン(smartphone)であり、ユーザによって所持される。ただし、この発明は、携帯電話機10のみならず、デスクトップ型PC、ラップトップ型PC、タブレット型PC、タブレット端末、PDAなどの任意のタッチスクリーン付情報処理端末に適用可能であることを予め指摘しておく。
図1に示すように、携帯電話機10は縦長の扁平矩形のハウジング12が設けられる。ハウジング12の主面(表面)には、ディスプレイ14が設けられる。たとえば、ディスプレイ14は、液晶や有機ELなどで構成される。このディスプレイ14の上には、タッチパネル16が設けられる。なお、この明細書においては、ディスプレイ14およびタッチパネル16を個別に呼ぶ場合もあるが、必要なときには、このようなディスプレイ14およびタッチパネル16を含めて「タッチスクリーン18」と呼ぶ。つまり、タッチスクリーン18上では、表示されているオブジェクトをタッチ入力によって操作できる。ただし、ディスプレイ14およびタッチパネル16は別々の部品であってもよく、一体の部品であってもよい。
ハウジング12の縦方向一端(上端)にスピーカ20が内蔵され、縦方向他端(下端)の主面側にマイク22が内蔵される。また、ハウジング12の主面および側面には、タッチスクリーン18とともに入力部ないし操作部として機能するハードウェアキー(以下、単に「キー」と呼ぶことにする。)24a、24b、24c、24d、24e、24f、24g、24hが設けられる。
図1からも分かるように、キー24a、24b、24cは、ハウジング12の主面であり、かつタッチスクリーン18の下方に、横並びで設けられる。キー24dは、ハウジング12の天面(上側面)の左端部に設けられる。また、キー24eおよびキー24fは、ハウジング12の左側面に設けられる。
図1からも分かるように、ハウジング12の左側面のうち、キー24eは、上端部に設けられ、キー24fは中央部に設けられる。さらに、キー24gおよびキー24hは、ハウジング12の右側面に設けられる。
図1からも分かるように、ハウジング12の右側面のうち、キー24gは、中央部の少し上方に設けられ、キー24hは、中央部の少し下方に設けられる。
ただし、キー24a‐24hの配置および個数は一例であり、実施例の携帯電話機10の構成に限定される必要はなく、適宜変更可能である。また、後述するキー24a‐24hに割り当てられた機能も一例であり、限定されるべきではなく、実際の製品の仕様によって適宜変更可能である。
キー24aは、バックキーであり、直前の画面を表示する(直前の画面に戻る)ために用いられる。キー24bは、ホームキーであり、ホーム画面(図4参照)を表示するために用いられる。キー24cは、メニューキーであり、現在表示されている画面のオプションについてのメニューを表示するために用いられる。
キー24dは、スピーカ20の切り替えキーであり、受話用スピーカとハンズフリー用スピーカを切り替えるために用いられる。この実施例では、スピーカ20は受話用スピーカとハンズフリー用スピーカの兼用であり、スピーカ20のゲインを調整することにより、受話用の音量とハンズフリー用の音量の間で切り替えられる。
キー24eは、ボリュームキーであり、音量を調整するために用いられる。このキー24eは、UPキーおよびDOWNキーで構成される。UPキーが操作されると、音量が増大され、DOWNキーが操作されると、音量が減少される。ただし、音量は最大値と最小値の間で調整可能である。また、このキー24eはいわゆるシーソーキーまたはロッカーキーであり、増減を調整する必要のある他の用途に用いられることもある。
キー24fは、PTT(Push-To-Talk)通話キーであり、PTT通話において、発言(発話)する場合に用いられる。
キー24gは、電源キーであり、携帯電話機10の主電源をオン/オフするために用いられる。キー24hは、カメラキーであり、カメラ機能(カメラアプリケーション)を実行するために用いられる。ただし、この実施例ではカメラ機能は重要ではないので、以下カメラ機能に関する記述は省略する。
図2は図1に示す携帯電話機10の電気的な構成の一例を示すブロック図である。図2に示すように、携帯電話機10は、プロセサ30を含み、プロセサ30には、無線通信回路32、A/D変換器36、D/A変換器38、ゲイン調整回路39、入力装置40、表示ドライバ42、フラッシュメモリ44、RAM46、タッチパネル制御回路48などが接続される。
無線通信回路32にはアンテナ34が接続され、A/D変換器36にはマイク24が接続され、D/A変換器38にはゲイン調整回路39を介してスピーカ20が接続される。さらに、表示ドライバ42にはディスプレイ14が接続され、タッチパネル制御回路48にはタッチパネル16が接続される。
プロセサ30は、コンピュータまたはCPUとも呼ばれ、携帯電話機10の全体制御を司る。フラッシュメモリ44は、記憶部として機能し、携帯電話機10の制御プログラムや制御プログラムの実行に必要な各種のデータを保存する。RAM46は、記憶部として機能し、プロセサ30のワーキング領域ないしバッファ領域として用いられる。したがって、RAM46には、フラッシュメモリ44に記憶されている制御プログラムの全部または一部が使用に際して展開され(書き込まれ)、プロセサ30はこのRAM46上の制御プログラムに従って動作する。また、RAM46には、制御プログラムの実行に必要なデータも記憶される。
入力装置40は、図1に示したキー24a‐24hを含み、キー24a‐24hに対するキー操作を受け付ける。キー操作を受け付けたキー24a‐24hの情報(キーデータ)は入力装置40によってプロセサ30に入力される。ただし、入力装置40としては、タッチスクリーン18上に表示される仮想キー(ソフトウェアキー)、たとえば数字キー、アルファベットキーなども含む。
無線通信回路32は、アンテナ34を通して、音声通話やメールなどのための電波を送受信するための回路である。実施例では、無線通信回路32は、CDMA方式での無線通信を行うための回路である。たとえば、タッチスクリーン18が受け付けた発呼(音声発信)の操作に基づき、無線通信回路32は、プロセサ30の指示の下、音声発信処理を実行し、アンテナ34を介して音声発信信号を出力する。音声発信信号は、基地局および通信網を経て相手の電話機に送信される。そして、相手の電話機において音声着信処理が行われると、通信可能状態が確立され、プロセサ30は通話処理を実行する。なお、無線通信回路32は、CDMA方式ではなく、LTE方式などの他の通信方式に対応するものであってもよい。
A/D変換器36は、マイク22から得られたアナログの音声信号をディジタルの音声データに変換し、その音声データをプロセサ30に入力する。D/A変換器38は、ディジタルの音声データをアナログの音声信号に変換して、ゲイン調整回路39を介してスピーカ20に与える。したがって、音声データに基づく音声がスピーカ20から出力される。そして、通話処理が実行されている状態では、マイク22によって集音された音声が相手の電話機に送信され、相手の電話機で集音された音声が、スピーカ20から出力される。
ただし、スピーカ20の音量は、ゲイン調整回路39によって調整される。ゲイン調整回路39は、プロセサ30の指示の下、キー24dの操作に応じて、受話用の音量(音圧レベル)とハンズフリー用の音量(音圧レベル)の間で切り替え、キー24eの操作に応じて、受話用の音量の制御範囲内で音量を変化させたり、ハンズフリー用の音量の制御範囲内で音量を変化させたりする。
ディスプレイ14(タッチスクリーン18)は、プロセサ30から出力される映像データまたは画像データに従って映像または画像を表示する。たとえば、表示ドライバ42は、ディスプレイ14(タッチスクリーン18)に表示するための映像データまたは画像データを一時的に記憶するビデオメモリを含んでおり、プロセサ30から出力された映像データまたは画像データはこのビデオメモリに記憶される。そして、表示ドライバ42は、ビデオメモリの内容に従って、ディスプレイ14(タッチスクリーン18)に映像または画像を表示する。つまり、表示ドライバ42は、プロセサ30の指示の下、当該表示ドライバ42に接続されたディスプレイ14(タッチスクリーン18)の表示を制御する。
タッチパネル制御回路48は、タッチパネル16(タッチスクリーン18)に必要な電圧などを付与すると共に、指またはスタイラスによってタッチされた位置(タッチ位置)を示す座標データをプロセサ30に入力する。したがって、プロセサ30は、入力された座標データに基づいて、タッチ操作されたオブジェクトを判断する。ただし、この明細書において、オブジェクトとは、タッチスクリーン18に表示されるアイコン、タイル、ソフトウェアキー(仮想キー)、静止画、文字、数字、文字列などを含むタッチ入力によって操作可能なすべてのGUIを意味する。
図3はロック解除画面100の一例を示し、ロック状態(電源キー24g以外の操作を受け付けない状態)が設定されているとき、電源キー24gが操作されると、このようなロック解除画面100がタッチスクリーン18上に表示される。
このようなロック解除画面100では、よく知られているように、たとえばタッチスクリーン18上において、予め設定しているパターン(軌跡)に合致するタッチ操作を行うと、ロック状態が解除されて図4のようなホーム画面表示に移行する。
しかしながら、たとえば作業現場において汚れた手袋をはめている状態などでは、特定のパターンに合致するタッチ操作を行うのはかなり難しい。この発明の実施例では、このような場合に音声入力によってロック状態を解除できるようにする。そのためにこのロック解除画面100には、状態表示部100aの他に、音声入力指示部100bが表示される。その音声入力指示部100bによる指示に従って、ユーザは音声入力する。なお、図3では、音声入力部による指示として、括弧書き「マークさんお話ください。」を記載したが、これは、わかりやすさのために記載しているのであり、必ずしもタッチスクリーン18上に表示されない。また、以下において、英語表記に続く括弧書きのカタカナは発音を例示するために付記されている。
詳細は後に説明するが、音声入力によってロック状態を解除するためには、まず、特定のキー、実施例では左上のスピーカ切り替えキー24dを押す。スピーカ切り替えキー24dを押した状態で、マイク22から、予め決めている音声、実施例では「Smart Device (スマートデバイス)」を入力すると、ロック状態が解除される。つまり、タッチ操作でも、音声操作でも、状況に応じて、ロック状態を解除することができる。
図4はタッチスクリーン18に表示されるホーム画面102の一例を示す概略図である。このホーム画面102には、状態表示部104および機能表示部106が形成され、状態表示部104には、アンテナ34による電波受信状態を示すピクト、二次電池の残電池容量を示すピクトおよび時刻が表示される。機能表示部106には、機能を表示するアイコンまたはタイルのようなオブジェクトが表示される。
オブジェクト106aは、電話やメールに限らず連絡を取れるすべての相手を登録している連絡先帳機能を実行するためのショートカットオブジェクトであり、そのオブジェクト106aには、この実施例では、「CONTACTS(コンタクツ)」(「連絡先」を意味する)という可読文字(ユーザが読めて発音できる文字)が付されている。したがって、ユーザがこのオブジェクト106aを音声によって指示したいときは、「コンタクツ」と発音すればよい。
オブジェクト106bは、ダウンロードによってコンテンツ(映像、音楽、データなど)を取得するためのショートカットオブジェクトである。オブジェクト106bには、この実施例では、「DOWNLOAD(ダウンロード)という可読文字が付されている。したがって、ユーザがこのオブジェクト106bを音声によって指示したいときは、「ダウンロード」と発音すればよい。
オブジェクト106cは、メールを送る機能を実行するためのショートカットオブジェクトである。オブジェクト106cには、この実施例では、「EMAIL(イーメール)という可読文字が付されている。したがって、ユーザがこのオブジェクト106cを音声によって指示したいときは、「イーメール」と発音すればよい。
オブジェクト106dは、たとえばインタネットを使ってURLにアクセスする機能を実行するためのショートカットオブジェクトであり、オブジェクト106dには、この実施例では、「BROWSER(ブラウザ)という可読文字が付されている。したがって、ユーザがこのオブジェクト106dを音声によって指示したいときは、「ブラウザ」と発音すればよい。
オブジェクト106eは、上述のCONTACTSオブジェクト106aとは異なり、電話帳機能を実行するためのショートカットオブジェクトであり、そのオブジェクト106eには、この実施例では、「PHONE(フォン)」という可読文字が付されている。したがって、ユーザがこのオブジェクト106eを音声によって指示したいときは、「フォン」と発音すればよい。
オブジェクト106fは、メッセージ送信機能を実行するためのショートカットオブジェクトであり、そのオブジェクト106fには、この実施例では、「MESSAGE(メッセージ)」という可読文字が付されている。メッセージには、たとえば
Twitter(登録商標)、Facebook(登録商標)などのSNS(social networking service)を含む。ユーザがこのオブジェクト106dを音声によって指示したいときは、「メッセージ」と発音すればよい。
オブジェクト106gは、他のメニューまたはサブメニューを選択させるためのショートカットオブジェクトである。上述したオブジェクト106a‐106fおよび後述のオブジェクト106h、106iには、もともと可読文字が付与されている。したがって、ユーザがこれらのオブジェクト106a‐106f、106h、106iを音声で指示使用とするとき、それらの可読文字を見れば容易に発音できる。
これに対して、他のアプリケーションを選択するメニュー選択機能を実行するためのオブジェクト106gには、可読文字が付与されていない。したがって、ユーザがこのオブジェクト106gを音声入力によって指示しようしても読めない。そのため、このオブジェクト106gに対して適切な音声を入力することはできない。したがって、様々な音声がこのオブジェクト106gに対して入力されてしまい、必ずしもこのオブジェクト106gを適正に指示できるとは限らない。
そこで、この実施例では、可読文字が付されていないオブジェクトの場合、後述の電話番号(図6)のように可読文字はあるもの文字列が長過ぎて音声入力には不向きであるような場合、人前で読み上げることがプライバシーに関わるような場合などには、別途準備した可読マーク108をオブジェクトに対して付与するようにしている。
図4の実施例では、メニューオブジェクト106gには、可読文字である「A(エー)」を含む可読マーク108が付される。したがって、ユーザがこのオブジェクト106gを音声によって指示したいときは、「エー」と発音するだけでよい。
オブジェクト106hは、写真を見るための機能を実行するためのショートカットオブジェクトであり、そのオブジェクト106hには、この実施例では、「GALLERY(ギャラリ)」という可読文字が付されている。したがって、ユーザがこのオブジェクト106hを音声によって指示したいときは、「ギャラリ」と発音すればよい。
なお、オブジェクト106iはカメラ機能を実行するためのオブジェクトであるが、カメラ機能はキー24hに固定的に割り当てられているので、カメラ機能を実行するためにはそのキー24hを押せばよい。
しかしながら、カメラ機能を音声によって指示することもできる。カメラ機能を実行するためのオブジェクト106には可読文字「CAMERA(カメラ)」が付与されているので、ユーザがこのオブジェクト106iを音声によって指示したいときは、「カメラ」と発音すればよい。
図4に示すすべてのオブジェクト106a‐106iは、タッチスクリーン18に表示されるのであるから、従来の携帯電話機と同様に、タッチ入力によって任意のオブジェクトを指定することができるのである。そして、この実施例は、このようなタッチ可能なオブジェクト106a‐106iの各々を音声入力によっても指定できるように、各オブジェクトに可読文字を付与しており、可読文字のないオブジェクトについては可読マーク108を付加する。
上述のようなホーム画面102でオブジェクト106a‐106iのどれかを選択した場合、タッチスクリーン18の表示は、そのオブジェクトによって示される具体的なアプリケーションを実行するためのアプリケーション画面に移行する。
図5は、図4のホーム画面102において、タッチ入力または音声入力で、オブジェクト106aすなわちコンタクツ機能を選択した場合のアプリケーション画面を例示する。図5は、コンタクツアプリケーションで、タッチスクリーン18上に表示される連絡先画面110の一例を示す。この連絡先画面110には、オブジェクト112a、112b、112cが画面上部に表示される。
オブジェクト112aは、登録しているお気に入りを呼び出すためのオブジェクトであり、「FAVORITES(フェイバリツ)」の可読文字が付与されている。したがって、ユーザがこのオブジェクト112aを音声によって指示したいときは、「フェイバリツ」と発音すればよい。
オブジェクト112bは、図4のオブジェクト106aと同様に、コンタクツ機能を実行するためのオブジェクトであり、「CONTACTS」という可読文字が付与されている。したがって、ユーザがこのオブジェクト112bを音声によって指示したいときは、「コンタクツ」と発音すればよい。
オブジェクト112cは、連絡先として登録しているグループを呼び出すためのオブジェクトであり、「GROUP(グループ)」という可読文字が付されている。したがって、ユーザがこのオブジェクト112cを音声によって指示したいときは、「グループ」と発音すればよい。
連絡先機能画面110ではさらに、この実施例では、アルファベット「A」、「B」、「C」…の順に登録情報がタッチスクリーン18上に表示されている。この例では、「A」の欄には、連絡先の名前として「ASHER」(アッシャ)を示すオブジェクト112dが表示されている。もしユーザがこの登録名の連絡先を呼び出したいと思えば、オブジェクト112dにタッチして選択すればよいのであるが、音声入力を用いてもこのオブジェクト112dを指定できる。そのためには、ユーザは「ASHER(アッシャ)」と発音すればよい。
「B」の欄には、連絡先の名前として「BENJIAMIN」(ベンジャミン)を示すオブジェクト112eが表示されている。もしユーザがこの登録名の連絡先を呼び出したいと思えば、オブジェクト112eにタッチして選択すればよいのであるが、音声入力を用いてもこのオブジェクト112eを指定できる。そのためには、ユーザは「BENJIAMIN(ベンジャミン)」と発音すればよい。ただし、「ハニービー」は、あだ名である。
「B」の欄にはさらに、連絡先の名前として「BROWN」(ブラウン)を示すオブジェクト112dが表示されている。もしユーザがこの登録名の連絡先を呼び出したいと思えば、オブジェクト112dにタッチして選択すればよいのであるが、音声入力を用いてもこのオブジェクト112dを指定できる。そのためには、ユーザは「BROWN(ブラウン)」と発音すればよい。ただし、「もっちゃん」は、あだ名である。
なお、連絡先機能画面110では、登録情報が、「あ」行、「か」行、「さ」行、「た」行、「な」行、「は」行、「ま」行、「や」行、「ら」行、「わ」行毎に表示されてもよい。
連絡先画面110のこれらの登録名の下方に、「検索」を意味する記号を有するオブジェクト112g、「+」記号を有するオブジェクト112hおよび「…(3点リーダ)」記号を有するサブメニューを呼び出すためのオブジェクト112iが表示される。これらのオブジェクト112g‐112iもタッチ入力によって選択ないし指定することができる。
ユーザがこれらオブジェクト112g、112hおよび112iを音声入力で指示したいと思っても、これらのオブジェクト112g‐112iには可読文字がないので、読み方がわからない。したがって、正しい音声入力ができないことも予想される。
そこで、図4のホーム画面102のオブジェクト106gと同様に、簡単な可読文字を有する、可読マーク114a、114bおよび114cを、対応するオブジェクト112g、112hおよび112iに付加している。したがって、もしユーザが音声にもよってこれらのオブジェクト112g‐112iのどれかを指示したいと思えば、付加されている可読マーク114a‐114cの対応のものを読み上げて音声入力とすればよい。
図6は、図5のアプリケーション画面110においてタッチ入力または音声入力によってオブジェクト112を指示した後に、タッチスクリーン18上に表示されるアプリケーション画面116の一例を示す。この例では、「BENJIAMIN(ベンジャミン)」と呼ばれる人物の写真が表示されるとともに、その写真の上方に、「BENJIAMIN(ベンジャミン)」という人物の電話帳登録を呼び出すためのオブジェクト118a、お気に入りを示す記号(☆)を有するオブジェクト118bおよび「3点リーダ」記号を有するオブジェクト118cが表示される。もちろん、これらのオブジェクト118a‐118cはタッチ可能オブジェクトであるので、それぞれタッチ入力によって指定することが可能である。
ところが、これらオブジェクト118a‐118cを音声入力で指示する場合、オブジェクト118a以外は読み方がわからないので、正しい音声入力ができるかどうか疑問である。
そこで、この実施例では、オブジェクト118bおよび118cにそれぞれ、可読マーク120aおよび120bを付加して表示した。
「BENJIAMIN(ベンジャミン)」という人物の写真はタッチ入力で指定または選択できるオブジェクトではないので、写真には可読マークは付加しない。
写真の下に、どのように発音するかを示す「Phonetic Name(発音名称)」が表示されるが、この発音名称もタッチ入力で指定すべきオブジェクトではないので、発音名称には可読マークは付加しない。
発音名称の下のタッチスクリーン18上には、「BENJIAMIN(ベンジャミン)」氏の電話番号がオブジェクト118dとして表示され、この隣には、SMS(Short Message Service)を表すオブジェクト118eが表示される。これらのオブジェクト118dおよび118eはタッチ入力によって指定できる。
電話番号を示すオブジェクト118dには、電話番号を示す文字列が表示されているので、その電話番号を読み上げることによって、音声入力することも可能である。ところが、電話番号は桁数が多いので読み上げに時間がかかって不都合であるばかりでなく、人が居る場所で電話番号を読み上げることはプライバシーにも関わるので不都合でもある。そこで、この実施例では、この電話番号を示すオブジェクト118dに可読マーク120cを付加することとした。つまり、可読文字が付与されているオブジェクトであっても、その可読文字を読み上げることで不都合が生じると考えられる場合、別の可読マークを準備してそれを付加してオブジェクトを表示する。
ただし、SMSオブジェクト118eは読み方が不明なので、そのオブジェクト118eには、別の可読マーク120dを付加している。
図6のアプリケーション画面116でもしオブジェクト118dがタッチ入力または音声入力によって指定されると、電話番号が指定されたことを意味するので、タッチスクリーン18上の表示は、図7に示す呼び出し画面122に遷移する。なお、図7では、括弧書き「呼び出し画面」を記載したが、これは、わかりやすさのために記載しているのであり、必ずしもタッチスクリーン18上に表示されない。
なお、図4‐図6からわかるように、各表示画面において付加される可読マークはたとえば「A」、「B」、「C」…のように画面毎に更新される。つまり、各画面において同じ可読マークが使用される。したがって、予め準備しておく可読マークの数が少なくてよい。他方、プロセサ30は、各表示画面中においてどの可読マークがどのオブジェクトに付加されているかは知っているので、ユーザからの音声入力が現在の表示画面ではどのオブジェクトを指示するかは的確に判断することができる。
ただし、各画面毎に異なる可読マークを使用するようにしてもよい。つまり、任意の形式の可読マークが使用可能である。
なお、可読マークは、「A」、「B」、「C」…等のアルファベットに限らず、ユーザが音声入力可能な、たとえば、数字であってもよい。また、可読マークは1文字に限らず、複数の文字からなる文字列であってもよい。
図8を参照して、RAM46には、プログラム記憶領域302とデータ記憶領域304とが形成される。プログラム記憶領域302は、先に説明したように、フラッシュメモリ44(図2)に予め設定しているプログラムデータの一部または全部を読み出して記憶(展開)しておくための領域である。
プログラム記憶領域302には、OSや携帯電話機として必要な通信プログラム(他の電話機と通話したり、他の電話機やコンピュータとデータ通信したりするためのプログラム)などの基本的プログラム(図示せず)が記憶される。
プログラム記憶領域302には、さらに、ロック解除プログラム302a、タッチ操作プログラム302b、音声操作プログラム302c、アプリケーションプログラム302dなどのプログラムが記憶される。
ロック解除プログラム302aは、図3のようなロック解除画面を表示して、タッチ入力または音声入力によって、ロック状態を解除するためのプログラムである。タッチ操作プログラム302bは、タッチ入力によってオブジェクトを操作するためのプログラムであり、音声操作プログラム302cは、音声入力によってオブジェクトを操作するためのプログラムである。
アプリケーションプログラム302dは、この携帯電話機10にインストールされていて、たとえば図4の機能表示部106で表示されるオブジェクトで示される各種アプリケーションプログラムを含み、タッチ操作プログラム302bまたは音声操作プログラム302cとともに各オブジェクトの機能を実行するためのプログラムである。つまり、タッチ操作プログラム302bおよび音声操作プログラム302cは、アプリケーションプログラムにおいて必要なとき実行されるプログラムである。
特に、音声操作プログラム302cには、可読文字を持たないオブジェクトのように可読マークを必要とするオブジェクトに対して可読マーク108(図4)、114a‐104c(図5)、120a‐120d(図6)などを付加する機能を有する。さらに、音声操作プログラム302cは、タッチスクリーン18に表示しているオブジェクトの可読文字あるいは可読マークの中に、マイク22から入力された音声に相当する可読文字または可読マークがあるかどうかの判断なども実行する。
さらに、タッチ操作プログラム302bは、タッチ入力によって示されるタッチ座標が、そのときタッチスクリーン18に表示しているオブジェクトを指示しているかどうか、つまり各オブジェクトにタッチしているかどうかの判断などを実行する。
RAM46のデータ記憶領域304には、タッチデータバッファ304a、音声データバッファ304b、画面データバッファ304cなどが設けられる。
タッチデータバッファ304aには、タッチパネル制御回路48が出力するタッチ座標のデータが一時的に記憶される。音声データバッファ304bには、プロセサ30が取得した、マイク22を通してユーザが入力した音声のデータが一時的に記憶される。画面データバッファ304cには、タッチスクリーン18上に現在表示されているオブジェクトに付与されている可読文字または可読マークと、それらの可読文字または可読マークがどのオブジェクトに付与されているのかを示す音声データ、座標位置データなどが、タッチスクリーン18の表示の切り替え毎に一時的に記憶される。
プロセサ30は、Windows(登録商標)ベースのOSや、Android(登録商標)およびiOS(登録商標)などのLinux(登録商標)ベースのOSなどその他のOSの制御下で、図9に示すロック解除処理、図10、図11に示すアプリケーション処理などを含む、複数のタスクを並列的に処理する。
携帯電話機10の電源キー24gがオンされると、図9に示すロック解除のための処理が実行される。ただし、この図9のフロー図も、図10、図11のフロー図と同様に、比較的短い時間間隔(たとえばフレーム周期)で実行される。
図9の最初のステップS1では、図1に示すキー24a‐24f、24hのうちの特定のキー、実施例ではスピーカ切り替えキー24dが押されているかどうか判断する。ステップS1で“YES”を判断したとき、つまり、キー24dが押されているとき、音声操作モードを設定するため、ステップS3において、プロセサ30はタッチパネル16を無効化する。したがって、タッチ入力による操作ができなくなる。
次のステップS5では、携帯電話機10がロック状態かどうか判断する。プロセサ30は、適宜のフラグをチェックすることによってロック状態かどうか判断できる。
ステップS5で“YES”が判断されると、つまり、ロック状態が設定されていると、スピーカ切り替えキー24dが押され続けていれば、次のステップS7において、たとえば図3に示す音声入力によるロック解除画面100を表示する。
そして、ステップS9において、ユーザがマイク22から音声を入力するのを待つ。音声入力があると、その音声入力による音声データは、音声データバッファ304b(図8)に一時記憶される。つまり、ユーザはキー24dを押した状態のまま、音声をマイク22から入力する。もし、ステップS9において音声がマイク22から入力されるまでの間にキー24dを離すと、その時点で処理が終了し、タッチ操作モードに移ってしまう。
次のステップS11で、プロセサ30は、その音声データを用いて音声認識処理を実行する。つまり、そのときユーザが入力した音声の内容を調べる。
ステップS13において、プロセサ30は、音声認識の結果判明した音声入力が、予め設定している音声、実施例では上述のように、「Smart Device(スマートデバイス)」と一致するかどうか、つまり、ロック解除のための正しい音声入力がされたかどうか、判断する。
ロック解除用の正しい音声入力があったと判断したとき、プロセサ30は、ステップS15において、ロック状態を解除するとともに、たとえば図4に示すようなホーム画面102を表示する。
音声入力が正しい音声入力ではなかったとき、プロセサ30はロック状態を解除せず、ロック解除処理を終了する。ただし、ステップS13で“NO”を判断したとき、再度の音声入力を促すメッセージをスピーカ20(図1)から出力して再入力を許容するようにしてもよい。
また、ステップS5で“NO”が判断されたときには、ロック状態が設定されていないのであるから、音声操作モードのまま、ステップS15に進む。
なお、ステップS1で“NO”が判断されたとき、つまり、音声操作モードが設定されていないときには、タッチパネル16を無効化しないで、ステップS19でロック状態が設定されているかどうか判断する。もし、ロック状態が設定されていれば、通常のタッチ操作によるロック解除処理を実行する。ロック状態が設定されていなければ、タッチ操作モードで、ステップS15に進む。
ステップS19で“YES”が判断されたとき、プロセサ30は、ステップS21で、タッチ操作用のロック解除画面(図示せず)を表示する。なお、タッチ操作でのロック解除は種々提案されているので、特定のロック解除画面は図示しない。
タッチ操作用のロック解除画面を表示した状態で、ステップS23において、タッチ入力があると、そのタッチ座標データは、ステップS25においてタッチデータバッファ304a(図8)に一時記憶される。
ステップS27において、プロセサ30は、タッチ座標データが、予め設定しているロック解除のためのタッチ座標データと合致するかどうか、判断する。
ロック解除用の正しいタッチ入力があったと判断したとき、プロセサ30は、先のステップS15において、ロック状態を解除して、ホーム画面102を表示する。
ただし、タッチ入力が正しいタッチ入力ではなかったとき、プロセサ30はロック状態を解除せず、ロック解除処理を終了する。ただし、ステップS27で“NO”を判断したとき、再度のタッチ入力を促すメッセージをタッチスクリーン18上に表示して再入力を許容するようにしてもよい。
このようにして、この実施例においては、タッチ操作または音声操作によって、ロック状態を解除することができる。そして、ロック状態が解除されて、図4に示すホーム画面102が表示されると図10で示すフロー図に従って、メニューを選択する。
図10の最初のステップS31でプロセサ30は、画面データバッファ304cに記憶されているホーム画面の画面データを参照して、そのホーム画面において、可読文字を持たないオブジェクトなど可読マークを必要とするオブジェクトがあるかどうか判断し、もし可読マークを必要とするオブジェクトがあれば、そのオブジェクトに対して、たとえば図4に示す可読マーク108を付加する。
そして、ステップS33で、プロセサ30は、スピーカ切り替えキー24dが押されているかどうか判断する。キー24dが押されていれば、音声操作モードを設定するため、ステップS35で、タッチパネル16を無効化する。
なお、スピーカ切り替えキー24dが押されたと判断された場合に、可読マーク108が付加されてもよい。すなわち、ステップS33でYESが判断された後に、ステップS31の処理が行われてもよい。
その後ステップS37、ステップS39において、先のステップS9、ステップS11と同様にして、キー24dを押したままの状態でユーザがマイク22から入力した音声の音声認識を行う。
ステップS39で認識した音声に基づいて、プロセサ30は、ステップS41で、その音声に該当するオブジェクトがホーム画面上にあるかどうか、つまり、ユーザの音声入力がホーム画面のどのオブジェクトを指示しているのか判断する。
該当するオブジェクトがあれば、ステップS43でそのオブジェクトが示す機能を実行する。たとえば、具体的なアプリケーションが選択されたのであれば、そのアプリケーションを実行するための画面(アプリケーション画面)を表示する。
なお、ステップS41で“NO”が判断されると、ホーム画面の表示がそのまま維持される。
なお、ステップS33で“NO”が判断されると、タッチ操作モードとなる。したがって、プロセサ30は、ステップS45、S47でタッチ座標を検出し、ステップS49で、画面データを参照して、そのタッチ座標がどれかのオブジェクトを指示しているかどうか判断する。つまり、タッチ位置にオブジェクトがあるかどうか、判断する。
該当するオブジェクトがあれば、ステップS43でそのオブジェクトが示す機能を実行する。たとえば、具体的なアプリケーションが選択されたのであれば、そのアプリケーションを実行するための画面(アプリケーション画面)を表示する。
なお、ステップS49で“NO”が判断されると、ホーム画面の表示がそのまま維持される。
このように、この実施例によれば、タッチ入力によって操作できるホーム画面上の各オブジェクト(タッチ可能オブジェクト)を音声入力によって直接指示することができる。したがって、音声によって指示文(依頼文)を入力する場合に比べて、オブジェクトを確実に操作することができる。
アプリケーション画面110(図5)からアプリケーション画面116(図6)へ移行すると、プロセサ30は、図11のフロー図に従って動作する。ただし、この図11の各ステップS51‐S69は、表示されているオブジェクトが異なるだけで、プロセサ30の動作としては、図10のステップS31‐S49とほぼ同様であるので、重複する説明は省略する。
なお、図3のロック解除画面において、図9のフロー図に従ってロック解除した後のホーム画面の他の例が図12に示される。図12のホーム画面102では、タッチパネル8上には、すべて可読文字が付与されているオブジェクト124a‐124eが表示されている。
オブジェクト124aには、「RECENT CALLS(最近の呼び出し)」の可読文字が付されている。したがって、このオブジェクト124aは、最近かけた電話を表示するためのオブジェクトであることがわかる。オブジェクト124bはカメラを使うためのオブジェクトであり、このオブジェクト124bには「CAMERA(カメラ)」の可読文字が付与されている。
オブジェクト124cは通知事項を示すオブジェクトであり、このオブジェクト124cには「NOTIFICATION(ノーティフィケーション:お知らせ)」の可読文字が付与されている。オブジェクト124dはこの携帯電話機10に設けている白色LED(図示せず)を使うフラッシュとして使うためのオブジェクトであり、このオブジェクト124dには「FLASHLIGHT(フラッシュライト)」の可読文字が付与されている。オブジェクト124eは、PTT(Push-To-Talk)を使うためのオブジェクトであり、このオブジェクト124eには「PTT(ピーティーティー)」の可読文字が付与されている。
この図12のホーム画面102のように、タッチスクリーン18上に表示されているオブジェクトにすべてもともと可読文字が付与されている場合には、別途準備した可読マークを付加する必要はない。
しかしながら、電話番号などのように、秘匿する必要がある場合には、たとえそのオブジェクトが可読であっても、抽象的な可読マークを付加することも考えられる。たとえば図13は、図12のホーム画面102上でオブジェクト124aが音声入力またはタッチ入力で指示されたときのアプリケーション画面126を示すが、この図13において、たとえば最上段の電話番号を示すオブジェクト126には、可読マーク128aが付与されている。したがって、ユーザが音声入力する場合、電話番号を読み上げる必要はなく、可読マーク128aに対して「A(エー)」と音声入力するだけでよい。
なお、実施例で示した具体的な画面は単なる例示であり、任意の意匠を持つホーム画面やアプリケーション画面に実施例は適用できるものである。
なお、上述の実施例ではいずれも、特定のキー、たとえばスピーカ切り替えキー24dを押し続けると音声操作モードが実行されるので、タッチパネル116を無効化した(ステップS3、S35、S65)が、タッチパネル16を無効化するかどうかは任意である。つまり、タッチパネル16が有効なままで、音声操作モードに移行するようにしてもよい。
また、タッチスクリーン上に表示された文字の中に、可読マークの読みと同じ読みを有する文字が存在する場合、たとえば、タッチスクリーン上に「A」という可読マークとともに、その可読マークとは別に「A」というオブジェクトが表示されている場合、ユーザがその読み(エー)を音声入力すると、タッチスクリーン上に、たとえば「可読マークのAですか?」という旨のメッセージとともに、「はい」および「いいえ」の選択肢を表示させてもよい。ユーザは、可読マークのAを音声入力したい場合は、「はい」と発声し、別の「A」を音声入力したい場合は、「いいえ」と発声すればよい。
なお、プロセサ30によって、タッチスクリーン上に同じ読みのオブジェクトが表示されないよう制御されてもよい。
なお、本実施例では、スピーカ切り替えキー24dが押されている間は、音声入力可能であるとしたが、音声入力不可能な状態(タッチ入力モード)でスピーカ切り替えキー24dが押されると音声入力可能になり、音声入力可能な状態(音声入力モード)でスピーカ切り替えキー24dが押されると音声入力不可能になってもよい。すなわち、スピーカ切り替えキー24dを押すことによって、タッチ入力モードと音声入力モードの間で入力モードが切り替わってもよい。
換言すれば、上述の実施例ではスピーカ切り替えキー24dのような特定のキーを操作すると特定のモード(実施例では、タッチ可能オブジェクトを音声入力によって操作できる、音声入力モード)が設定されたが、このような特定のモードを設定する方法は実施例の方法に限られることはない。
さらに、上述の実施例では、特定のキーとしてスピーカ切り替えキー24dを用いたが、これは電源キー24g以外の他のキーに代えられてもよい。
また、本実施例で用いられたプログラムは、データ配信用のサーバのHDDに記憶され、ネットワークを介して携帯電話機10に配信されてもよい。また、CD,DVD,BD(Blue-Ray Disk)などの光学ディスク、USBメモリおよびメモリカードなどの記憶媒体に複数のプログラムを記憶させた状態で、その記憶媒体が販売または配布されてもよい。そして、上記したサーバや記憶媒体などを通じてダウンロードされた、プログラムが本実施例と同等の構成の携帯電話機にインストールされた場合、本実施例と同等の効果が得られる。
10… 携帯電話機
18… タッチスクリーン
22… マイク
24a‐24h… (ハードウエア)キー
30… プロセサ
44… フラッシュメモリ
46… RAM
48… タッチパネル制御回路
100… ロック解除画面
102… ホーム画面
106… 機能表示部
110、116… アプリケーション画面
106a‐106i、112a‐112i、118a‐106e… オブジェクト
108、114a‐114c、120a‐120c… 可読マーク

Claims (7)

  1. マイクと、電源キーを含む複数のキーを含み、タッチスクリーン上に表示されたタッチ可能オブジェクトをタッチ入力によって操作したときそのオブジェクトの機能を実行する実行部を備える、タッチスクリーン付情報処理端末であって、
    特定のモードが設定されているときに前記マイクから入力された音声を認識する音声認識部、および
    前記音声認識部が認識した音声が前記タッチ可能オブジェクトを指示するかどうか判断する判断部を備え、
    前記実行部は、前記判断部によって前記音声が前記タッチ可能オブジェクトを指示すると判断したとき、そのオブジェクトの機能を実行する、タッチスクリーン付情報処理端末。
  2. 前記タッチ可能オブジェクトが可読文字を含むとき、前記判断部は前記音声が前記可読文字に該当するかどうか判断する、請求項1記載のタッチスクリーン付情報処理端末。
  3. 前記タッチ可能オブジェクトに、可読文字を含む可読マークを付加する付加部をさらに備え、前記判断部は前記音声が前記可読マークに含まれる可読文字に該当するかどうか判断する、請求項1または2記載のタッチスクリーン付情報処理端末。
  4. ロック解除画面が表示されている状態において、前記音声認識部が認識した音声がロック解除のための正しい音声に該当するかどうか判断する第2判断部、および
    前記第2判断部が、前記音声がロック解除のための正しい音声に該当すると判断したとき、ロック状態を解除するロック解除部をさらに備える、請求項1ないし3のいずれかに記載のタッチスクリーン付情報処理端末。
  5. 前記特定のモードは、特定のハードウェアキーの操作に応じて設定される、請求項1ないし4のいずれかに記載のタッチスクリーン付情報処理端末。
  6. マイクと、電源キーを含む複数のキーを含み、タッチスクリーン上に表示されたタッチ可能オブジェクトをタッチ入力によって操作したときそのオブジェクトの機能を実行する実行部を備える、タッチスクリーン付情報処理端末のプロセサが次のステップを実行する情報処理方法であって、
    特定のモードが設定されているときに前記マイクから入力された音声を認識する音声認識ステップ、および
    前記音声認識ステップにおいて認識した音声が前記タッチ可能オブジェクトを指示するかどうか判断する判断ステップを備え、
    前記実行部は、前記判断ステップによって前記音声が前記タッチ可能オブジェクトを指示すると判断したとき、そのオブジェクトの機能を実行する、情報処理方法。
  7. マイクと、電源キーを含む複数のキーを含み、タッチスクリーン上に表示されたタッチ可能オブジェクトをタッチ入力によって操作したときそのオブジェクトの機能を実行する実行部を備える、タッチスクリーン付情報処理端末のプロセサを、
    特定のモードが設定されているときに前記マイクから入力された音声を認識する音声認識部、および
    前記音声認識部が認識した音声が前記タッチ可能オブジェクトを指示するかどうか判断する判断部
    として機能させ、
    前記実行部によって、前記判断部によって前記音声が前記タッチ可能オブジェクトを指示すると判断したとき、そのオブジェクトの機能を実行させる、情報処理プログラム。
JP2014261805A 2014-12-25 2014-12-25 タッチスクリーン付情報処理端末、情報処理方法および情報処理プログラム Pending JP2016122980A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2014261805A JP2016122980A (ja) 2014-12-25 2014-12-25 タッチスクリーン付情報処理端末、情報処理方法および情報処理プログラム
PCT/JP2015/086366 WO2016104766A1 (ja) 2014-12-25 2015-12-25 タッチスクリーン付情報処理端末および情報処理方法
US15/629,514 US20170286061A1 (en) 2014-12-25 2017-06-21 Information processing terminal and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014261805A JP2016122980A (ja) 2014-12-25 2014-12-25 タッチスクリーン付情報処理端末、情報処理方法および情報処理プログラム

Publications (1)

Publication Number Publication Date
JP2016122980A true JP2016122980A (ja) 2016-07-07

Family

ID=56150778

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014261805A Pending JP2016122980A (ja) 2014-12-25 2014-12-25 タッチスクリーン付情報処理端末、情報処理方法および情報処理プログラム

Country Status (3)

Country Link
US (1) US20170286061A1 (ja)
JP (1) JP2016122980A (ja)
WO (1) WO2016104766A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180116726A (ko) * 2017-04-17 2018-10-25 삼성전자주식회사 음성 데이터 처리 방법 및 이를 지원하는 전자 장치
WO2018194267A1 (ko) * 2017-04-17 2018-10-25 삼성전자 주식회사 음성 데이터 처리 방법 및 이를 지원하는 전자 장치
JP2020027350A (ja) * 2018-08-09 2020-02-20 キヤノン株式会社 画像形成装置、制御方法、プログラム、および画像形成システム
JP2020065186A (ja) * 2018-10-18 2020-04-23 清水建設株式会社 通信装置、通信システム、及び通信方法

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9495708B2 (en) 2012-06-11 2016-11-15 Acorns Grow Incorporated Systems and methods for managing electronic interactive gaming-based investments
US11087538B2 (en) 2018-06-26 2021-08-10 Lenovo (Singapore) Pte. Ltd. Presentation of augmented reality images at display locations that do not obstruct user's view
US10991139B2 (en) * 2018-08-30 2021-04-27 Lenovo (Singapore) Pte. Ltd. Presentation of graphical object(s) on display to avoid overlay on another item

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003514261A (ja) * 1999-11-09 2003-04-15 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ インターネットページのハイパーリンクを作動させる音声認識方法
JP2012256047A (ja) * 2011-06-07 2012-12-27 Samsung Electronics Co Ltd ディスプレイ装置およびそのリンク実行方法、並びに、音声認識方法
JP2013037688A (ja) * 2011-08-05 2013-02-21 Samsung Electronics Co Ltd 電子装置及びその制御方法
JP2013143151A (ja) * 2012-01-11 2013-07-22 Samsung Electronics Co Ltd 音声認識を使用してユーザ機能を行う方法及び装置
EP2632129A1 (en) * 2012-02-24 2013-08-28 Samsung Electronics Co., Ltd Method and Apparatus for Controlling Lock/Unlock State of Terminal Through Voice Recognition

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FI981127A (fi) * 1998-05-20 1999-11-21 Nokia Mobile Phones Ltd Ääniohjausmenetelmä ja äänellä ohjattava laite
KR101545582B1 (ko) * 2008-10-29 2015-08-19 엘지전자 주식회사 단말기 및 그 제어 방법
EP2945090A4 (en) * 2013-01-10 2016-08-17 Nec Corp END DEVICE, RELEASE PROCEDURE AND PROGRAM

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003514261A (ja) * 1999-11-09 2003-04-15 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ インターネットページのハイパーリンクを作動させる音声認識方法
JP2012256047A (ja) * 2011-06-07 2012-12-27 Samsung Electronics Co Ltd ディスプレイ装置およびそのリンク実行方法、並びに、音声認識方法
JP2013037688A (ja) * 2011-08-05 2013-02-21 Samsung Electronics Co Ltd 電子装置及びその制御方法
JP2013143151A (ja) * 2012-01-11 2013-07-22 Samsung Electronics Co Ltd 音声認識を使用してユーザ機能を行う方法及び装置
EP2632129A1 (en) * 2012-02-24 2013-08-28 Samsung Electronics Co., Ltd Method and Apparatus for Controlling Lock/Unlock State of Terminal Through Voice Recognition

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180116726A (ko) * 2017-04-17 2018-10-25 삼성전자주식회사 음성 데이터 처리 방법 및 이를 지원하는 전자 장치
WO2018194267A1 (ko) * 2017-04-17 2018-10-25 삼성전자 주식회사 음성 데이터 처리 방법 및 이를 지원하는 전자 장치
KR102369083B1 (ko) * 2017-04-17 2022-03-02 삼성전자주식회사 음성 데이터 처리 방법 및 이를 지원하는 전자 장치
JP2020027350A (ja) * 2018-08-09 2020-02-20 キヤノン株式会社 画像形成装置、制御方法、プログラム、および画像形成システム
US11394838B2 (en) 2018-08-09 2022-07-19 Canon Kabushiki Kaisha Image forming apparatus allowing voice operation, control method therefor, storage medium storing control program therefor, and image forming system
JP7182945B2 (ja) 2018-08-09 2022-12-05 キヤノン株式会社 画像形成システム、画像形成装置および画像形成装置の制御方法
JP2020065186A (ja) * 2018-10-18 2020-04-23 清水建設株式会社 通信装置、通信システム、及び通信方法
JP7186059B2 (ja) 2018-10-18 2022-12-08 清水建設株式会社 通信装置、及び通信システム

Also Published As

Publication number Publication date
WO2016104766A1 (ja) 2016-06-30
US20170286061A1 (en) 2017-10-05

Similar Documents

Publication Publication Date Title
JP2016122980A (ja) タッチスクリーン付情報処理端末、情報処理方法および情報処理プログラム
KR101412764B1 (ko) 대안적 잠금 해제 패턴
US8995625B2 (en) Unified interface and routing module for handling audio input
JP5739303B2 (ja) 携帯端末、ロック制御プログラムおよびロック制御方法
US9111538B2 (en) Genius button secondary commands
US9547468B2 (en) Client-side personal voice web navigation
KR101142962B1 (ko) 이동 통신 단말기의 통화 처리 방법 및 그 이동 통신단말기
KR20140092873A (ko) 적응식 입력 언어 전환
JP2014228989A (ja) 携帯端末、表示制御プログラムおよび表示制御方法
JP5814823B2 (ja) 携帯端末、特定モード設定プログラムおよび特定モード設定方法
US20130244627A1 (en) Method for providing phone book service and associated electronic device thereof
KR20140003035A (ko) 상황 인지를 이용한 단말의 제어 방법 및 그 단말
KR20140099589A (ko) 사용자 디바이스에서 단축번호 제공 방법 및 장치
CN103003874A (zh) 基于语言属性到联系人条目的分配而提供文本服务
JP2012231244A (ja) 携帯端末、ロック解除プログラムおよびロック解除方法
US9065920B2 (en) Method and apparatus pertaining to presenting incoming-call identifiers
JP2015144492A (ja) 携帯端末、ロック制御プログラムおよびロック制御方法
CN106303084A (zh) 一种信息记录的方法及装置
KR20140080214A (ko) 사용자 정보를 전송하는 단말기 및 방법
US20160021234A1 (en) Call answering method integrating social software application and telephone answering interface
CA2768418C (en) Apparatus and method for managing call notes in a wireless device
WO2018120241A1 (zh) 识别通话对象身份的方法和终端设备
JP6148301B2 (ja) 携帯端末、特定モード設定プログラムおよび特定モード設定方法
JP2013042537A (ja) プログラム
KR101160384B1 (ko) 사용자 인터페이스 장치 및 사용자 인터페이스 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180306

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181002

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181126

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190409