JP2014103536A - 携帯端末装置 - Google Patents
携帯端末装置 Download PDFInfo
- Publication number
- JP2014103536A JP2014103536A JP2012254289A JP2012254289A JP2014103536A JP 2014103536 A JP2014103536 A JP 2014103536A JP 2012254289 A JP2012254289 A JP 2012254289A JP 2012254289 A JP2012254289 A JP 2012254289A JP 2014103536 A JP2014103536 A JP 2014103536A
- Authority
- JP
- Japan
- Prior art keywords
- detected
- terminal device
- sensor
- mobile terminal
- voice
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Telephone Function (AREA)
Abstract
【課題】通話の際のユーザの使用態様に応じた適正な制御により利便性を向上させることが可能な携帯端末装置を提供する。
【解決手段】通話機能を有する携帯端末装置は、筐体と、筐体に配置されたディスプレイと、筐体において、ディスプレイの上方に配置された、被検出部を検出するための第1のセンサと、筐体において、ディスプレイの下方に第1のセンサに対向するように配置された、被検出物を検出するための第2のセンサと、音声を出力するための音声出力部と、音声の入力を受け付けるための音声入力部と、プロセッサとを含む。プロセッサは、通話中における第1および第2のセンサの検出結果に基づいて、音声出力部からの音声出力の大きさを調整するとともに、音声入力部の音声入力ゲインの大きさを調整する。
【選択図】図4
【解決手段】通話機能を有する携帯端末装置は、筐体と、筐体に配置されたディスプレイと、筐体において、ディスプレイの上方に配置された、被検出部を検出するための第1のセンサと、筐体において、ディスプレイの下方に第1のセンサに対向するように配置された、被検出物を検出するための第2のセンサと、音声を出力するための音声出力部と、音声の入力を受け付けるための音声入力部と、プロセッサとを含む。プロセッサは、通話中における第1および第2のセンサの検出結果に基づいて、音声出力部からの音声出力の大きさを調整するとともに、音声入力部の音声入力ゲインの大きさを調整する。
【選択図】図4
Description
本発明は、携帯端末装置に関し、特に複数のセンサを含む携帯端末装置に関する。
従来、携帯電話機に近接センサを設けて、通話中に、ユーザが携帯電話に近接したか否かを示す検出結果に基づいて、表示部を制御する技術が知られている。
例えば、特開2012−29207号公報(特許文献1)には、表示部に画像を表示させる表示制御部と、近接センサと、通話の開始を検出する通話検出部とを含む携帯端末装置が開示されている。表示制御部は、通話が開始されると、被検出物が近接検出部に近接した状態において、表示部を消灯し、被検出物が近接検出部から離れた状態において、表示部に通話者が利用するための特定の画像を表示させる。
しかしながら、特許文献1によると、ユーザが携帯電話機から離れた場合においても、表示画面において、必要な機能を起動するための操作を行なう必要が生じる。
本発明は、上記のような問題を解決するためになされたものであって、通話の際のユーザの使用態様に応じた適正な制御により利便性を向上させることが可能な携帯端末装置を提供することを目的とする。
ある実施の形態に従うと、通話機能を有する携帯端末装置が提供される。携帯端末装置は、筐体と、筐体に配置されたディスプレイと、筐体において、ディスプレイの上方に配置された、被検出部を検出するための第1のセンサと、筐体において、ディスプレイの下方に第1のセンサに対向するように配置された、被検出物を検出するための第2のセンサと、音声を出力するための音声出力部と、音声の入力を受け付けるための音声入力部と、プロセッサとを含む。プロセッサは、通話中における第1および第2のセンサの検出結果に基づいて、音声出力部からの音声出力の大きさを調整するとともに、音声入力部の音声入力ゲインの大きさを調整する。
ある局面では、通話の際のユーザの使用態様に応じた適正な制御により利便性を向上させることが可能となる。
以下、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。
[実施の形態1]
まず、図1を参照して、携帯端末装置100の外観について説明する。図1は、実施の形態1に従う携帯端末装置100の外観を示す模式図である。以下の説明では、携帯端末装置100がスマートフォンである場合について説明する。但し、携帯端末装置100は、種類を問わず任意の装置として実装可能である。例えば、携帯端末装置100は、携帯電話、タブレット端末装置、PDA(Personal Digital Assistance)などとして実現することもできる。
まず、図1を参照して、携帯端末装置100の外観について説明する。図1は、実施の形態1に従う携帯端末装置100の外観を示す模式図である。以下の説明では、携帯端末装置100がスマートフォンである場合について説明する。但し、携帯端末装置100は、種類を問わず任意の装置として実装可能である。例えば、携帯端末装置100は、携帯電話、タブレット端末装置、PDA(Personal Digital Assistance)などとして実現することもできる。
図1に示されるように、携帯端末装置100は、表示部としてのディスプレイ14と、ユーザによってディスプレイ14にタッチ入力された位置を検出可能なタッチパネル12と、各種の操作を行なうためのボタン13と、比較的小さい音圧レベルの音声を出力するレシーバ15と、音声の入力を受け付けるマイク17と、第1のセンサ23と、第2のセンサ24とを含む。
ディスプレイ14には透明なタッチパネル12が取り付けられており、ユーザのタッチ操作に基づく各種の指示を受け付けることが可能である。
レシーバ15は、図1のように携帯端末装置100の筐体(本体)の上部に配置され、マイク17は、携帯端末装置100の筐体の下部に配置される。より具体的には、レシーバ15は、筐体において、ディスプレイ14の上方(+Y方向)に配置され、マイク17は、筐体において、ディスプレイ14の下方(−Y方向)に配置される。また、本例では、レシーバ15およびマイク17は、互いにディスプレイ14を挟むように対向して配置されている。当該配置は、ユーザが携帯端末装置100を把持し耳に当てながら通話するハンドセット通話時には、基本的に筐体の下部を把持し、筐体の上部に配置されたレシーバ15に耳を近付け、筺体の下部に配置されたマイク17に向かって発話することが通常であることを考慮したものである。また、ボタン13は、ユーザが操作しやすいように筐体の下部に配置される。
また、携帯端末装置100の筐体には、被検出物を検出するための近接センサである第1のセンサ23および第2のセンサ24が配置されている。より具体的には、第1のセンサ23は、筐体において、ディスプレイ14の上方に配置され、第2のセンサ24は、ディスプレイ14の下方に配置される。換言すると、第1のセンサ23は、レシーバ15の近傍に配置され、第2のセンサ24は、マイク17の近傍に配置される。本例では、第1のセンサ23および第2のセンサ24は、ディスプレイ14を挟むように対向して配置されている。なお、第1のセンサ23および第2のセンサ24は、基本的には、携帯端末装置100の筐体内部に配置される。
次に、図2を参照して、携帯端末装置100のハードウェア構成について説明する。図2は、実施の形態1に従う携帯端末装置100のハードウェア構成を示すブロック図である。
図2に示されるように、携帯端末装置100は、主たる構成要素として、CPU(Central Processing Unit)10と、メモリ11と、タッチパネル12と、ボタン13と、ディスプレイ14と、レシーバ15と、スピーカ16と、マイク17と、無線通信部18と、通信アンテナ19と、通信インターフェイス(I/F)20と、メモリインターフェイス(I/F)21と、第1のセンサ23と、第2のセンサ24とを含む。
CPU10は、メモリ11に記憶されたプログラムを読み出して実行することで、携帯端末装置100の各部の動作を制御する。より詳細にはCPU10は、当該プログラムを実行することによって、後述する携帯端末装置100の処理(ステップ)の各々を実現する。CPU10は、例えば、マイクロプロセッサである。なお、当該ハードウェアは、CPU以外のFPGA(Field Programmable Gate Array)、ASIC(Application Specific Integrated Circuit)およびその他の演算機能を有する回路などであってもよい。
メモリ11は、RAM(Random Access Memory)、ROM(Read-Only Memory)、ハードディスクなどによって実現される。メモリ11は、CPU10によって実行されるプログラム、またはCPU10によって用いられるデータなどを記憶する。
タッチパネル12は、表示部としての機能を有するディスプレイ14上に設けられる。タッチパネル12は、抵抗膜方式、表面弾性波方式、赤外線方式、電磁誘導方式、静電容量方式などのいずれのタイプであってもよいし、光センサ液晶を含んでもよい。タッチパネル12は、外部の物体によるタッチパネルへのタッチ操作を検知して、タッチ座標(タッチ位置)をCPU10に入力する。
ボタン13は、携帯端末装置100の本体部分の表面に配置されており、ユーザからの指示を受け付けて、CPU10に入力する。ボタン13は、例えば、表示画面を遷移させる画面遷移ボタン、確定ボタン、キャンセルボタンなどを含む。
ディスプレイ14は、例えば、液晶ディスプレイあるいは有機EL(Electro-Luminescence)ディスプレイであり、CPU10からの信号に基づいて、表示画面に画像やテキストなどを表示する。
レシーバ15は、CPU10の指示に従って、ハンドセット通話の際に通話先から送信される音声信号に基づいて音声を出力する。
スピーカ16は、CPU10の指示に従って、レシーバ15より高い音圧レベルで音声を出力する。スピーカ16は、例えば、ハンズフリー通話の際に音声を出力する。また、スピーカ16は、例えば、携帯端末装置100の筐体において、ディスプレイ14が設けられた面とは反対側の面に配置される。
マイク17は、携帯端末装置100に対する発話を受け付けて、発話された音声に対応する信号をCPU10に送信する。
無線通信部18は、通信アンテナ19を介して移動体通信網に接続し無線通信のための信号の送受信を行なう。これにより、携帯端末装置100は、たとえば、第3世代移動通信システム(3G)、LTE(Long Term Evolution)などの移動体通信網を介して通信装置との通信(通話相手との通話など)が可能となる。
通信インターフェイス20は、携帯端末装置100と外部装置との間で各種データをやり取りする。通信方式としては、Bluetooth(登録商標)、無線LAN(Local Area Network)などによる無線通信であってもよいし、USBバスなどを利用した有線通信であってもよい。
メモリインターフェイス21は、外部の記憶媒体22からデータを読み出す。なお、記憶媒体22としては、CD(Compact Disc)、DVD(Digital Versatile Disk)、BD(Blu-ray Disc)、USB(Universal Serial Bus)メモリなどの、不揮発的にプログラムを格納する媒体が挙げられる。
第1のセンサ23は、レシーバ15の近傍に配置されており、ユーザの耳などの被検出物が近接したことおよび近傍に被検出物が存在していることを検出する。第2のセンサ24は、マイク17の近傍に配置されており、ユーザの口元などの被検出物が近接したことおよび近傍に被検出物が存在していることを検出する。
第1のセンサ23および第2のセンサ24は、たとえば、静電容量式の近接センサであり、被検出物が近接または近傍に存在することにより静電容量が増加し、静電容量が閾値を超えると、検出信号をCPU10へ出力する。一方、第1のセンサ23および第2のセンサ24は、被検出物が離れ近傍に存在しなくなると、検出信号をCPU10へ出力しなくなる。なお、第1のセンサ23および第2のセンサ24は、静電容量式に限られず、たとえば、超音波式や誘導形の近接センサなどのようにユーザを検出できるものであればよい。
次に、図3を参照して、ユーザが携帯端末装置100を利用して通話している際の携帯端末装置100の動作概要について説明する。図3は、本実施の形態に従う携帯端末装置100の動作概要を説明するための図である。
図3を参照すると、ユーザがハンドセット通話をする場合には、通常、筐体の下部を把持するとともに下部に配置されたマイク17に口元を近づけて、筐体の上部に配置されたレシーバ15近傍に耳を当てて通話する。このとき、第1のセンサ23および第2のセンサ24によってユーザが検出されるか(図3の状態(a1))、もしくは第1のセンサ23のみによってユーザが検出される(図3の状態(a2))ことが想定される。このような検出状態の場合には、ユーザの耳がレシーバ15の近傍にあるため、携帯端末装置100は、レシーバ15から比較的小さい音圧レベルで通話相手の音声を出力する。また、携帯端末装置100は、ユーザの口元がマイク17の比較的近傍にあることから、マイク17の音声入力ゲインを比較的小さく設定(ハンドセット通話用に設定)する。
また、ユーザは、通話中に、何かを検索するために、携帯端末装置100に搭載されている音声認識機能を利用する場合には、表示画面を見ながら口元をマイク17に近づける。このとき、第2のセンサ24のみによってユーザが検出される(図3の状態(b))ことが想定される。このような検出状態の場合には、携帯端末装置100は、通話相手との通話が一時中断されていること、および通話相手からの音声がユーザが行ないたい音声認識の障害になる可能性を考慮して、通話相手からの音声出力は一時停止する。また、ユーザの口元がマイク17のかなり近傍にあるため、携帯端末装置100は、マイク17の音声入力ゲインを比較的小さく(音声認識用に設定)設定する。また、このとき、音声認識のためにユーザが発した音声が通話相手に送信されないように、通話相手に対する音声の送信を一時停止してもよい。なお、ハンドセット通話時および音声認識機能の利用時には、ユーザの口元はマイク17近傍にあることが想定されるため、ハンドセット通話用および音声認識用のマイク17の音声入力ゲインは、同じであってもよい。
ユーザにより検索したい検索キーワードが発せられると、携帯端末装置100は、当該検索キーワードを音声認識してテキストデータとして抽出する。そして、携帯端末装置100は、当該検索キーワードに基づいて外部サーバなどのデータベースを検索し、検索結果をディスプレイ14に表示する。ユーザは、当該検索結果を視認しながらハンズフリー通話を行なう。このとき、第1のセンサ23および第2のセンサ24のいずれにおいてもユーザが検出されない(図3の状態(c))ことが想定される。このような検出状態の場合には、ユーザの耳は携帯端末装置100本体から離れているため、携帯端末装置100は、スピーカ16から大きい音圧レベルで通話相手の音声を出力する。また、携帯端末装置100は、ユーザの口元がマイク17から離れていることから、ユーザの音声を十分拾えるようにするため、マイク17の音声入力ゲインを大きく設定(ハンズフリー通話用に設定)する。
次に、図4を参照して、携帯端末装置100の機能構成について説明する。図4は、本実施の形態に従う携帯端末装置100の機能ブロック図である。
図4に示されるように、携帯端末装置100は、その主たる機能構成として、判断部52と、音声制御部54と、音声認識部56と、検索部58と、表示制御部60とを含む。基本的には、これらの機能は、携帯端末装置100のCPU10がメモリ11に格納されたプログラムを実行し、携帯端末装置100の構成要素へ指令を与えることなどによって実現される。すなわち、CPU10は携帯端末装置100の動作全体を制御する制御部としての機能を有する。なお、これらの機能構成の一部または全部は、ハードウェアで実現されていてもよい。
判断部52は、通話中において第1のセンサ23および第2のセンサ24からの検出信号を受け付けて、被検出物がそれぞれのセンサに接近したこと、およびそれぞれのセンサから離れたことを判断する。判断部52は、当該判断結果を音声制御部54および音声認識部56に送出する。
音声制御部54は、通話中における第1のセンサ23および第2のセンサ24の検出結果に基づいて(判断部52の判断結果に基づいて)、音声を出力するための音声出力部からの音声出力の大きさを調整するとともに、音声の入力を受け付けるための音声入力部の音声入力ゲインの大きさを調整する。より具体的には、音声出力部は、レシーバ15およびスピーカ16を含み、音声制御部54は、当該検出結果に基づいて、音声の出力先をレシーバ15またはスピーカ16に切り替えることにより、音声出力の大きさを調整する。また、音声入力部は、マイク17で構成され、音声制御部54は、当該検出結果に基づいて、マイク17の音声入力ゲインを調整する。
さらに詳細には、音声制御部54は、第1のセンサ23および第2のセンサ24のいずれにおいても被検出物が検出されていない場合に音声出力部から出力される音声が、少なくとも第1のセンサ23および第2のセンサ24のいずれかで被検出物が検出された場合に音声出力部から出力される音声よりも大きくなるように調整する。より具体的には、音声制御部54は、第1のセンサ23および第2のセンサ24の検出状態が図3の状態(c)の場合には、音圧レベルの大きいスピーカ16から音声を出力させ、図3の状態(a1)、(a2)の場合には、音圧レベルの小さいレシーバ15から音声を出力させ、図3の状態(b)の場合には、音声の出力を一時停止させる。
また、音声制御部54は、第1のセンサ23および第2のセンサ24のいずれにおいても被検出物が検出されていない場合における音声入力部の音声入力ゲインが、少なくとも第1のセンサ23および第2のセンサ24のいずれかで被検出物が検出された場合における音声入力部の音声入力ゲインよりも大きくなるように調整する。より具体的には、音声制御部54は、図3の状態(c)の場合におけるマイク17の音声入力ゲインが、図3の状態(a1)、(a2)または状態(b)の場合における音声入力ゲインよりも大きくなるように調整する。
音声認識部56は、判断部52の判断結果を受けて、第1のセンサ23において被検出物が検出されず、かつ第2のセンサ24において被検出物が検出された場合には、音声入力部に入力された音声に基づいて音声認識処理する。すなわち、音声認識部56は、入力された音声を音声認識してテキストデータを抽出する。音声認識部56は、抽出したテキストデータを検索部58に出力する。なお、音声認識部56は、例えば、CPU10がメモリ11に格納されている音声認識用のアプリケーションを起動することにより実現される機能である。
検索部58は、音声認識部56において抽出されたテキストデータを検索キーワードとして、無線通信部18(または通信インターフェイス20)を介して外部サーバにおけるデータベース200を検索する。
表示制御部60は、検索部58の検索結果をディスプレイ14に表示させる。表示制御部60は、別の局面では、表示制御部60は、ディスプレイ14のフォアグラウンドが通話用のアプリケーション画面であるか否かを判断し、当該判断結果を音声認識部56に送出する。音声認識部56は、別の局面では、フォアグラウンドが通話用のアプリケーション画面であると判断された場合には、音声認識処理を実行し、フォアグラウンドが通話用のアプリケーション画面ではないと判断された場合には、音声認識処理を実行しない。
次に、図5を参照して、実施の形態1に従う携帯端末装置100で実行される制御処理について説明する。図5は、実施の形態1に従う携帯端末装置100において通話中に実行される処理手順の一例を示すフローチャートである。なお、CPU10は、無線通信部18を介して通話の呼出信号を受信した後にタッチパネル12(またはボタン13)の操作に応じた通話の開始の指示をユーザから受け付けると、通話を開始する。以下の各ステップは、CPU10がメモリ11に格納されたプログラムを実行することによって実現される。なお、ここでは説明の容易化のため、携帯端末装置100の筐体の上部に配置された第1のセンサ23を「上部センサ」と称し、筐体の下部に配置された第2のセンサ24を「下部センサ」と称する。
CPU10は、通話中に上部センサでユーザを検出したか否かを判断する(ステップS10)。上部センサでユーザが検出されていない場合には(ステップS10においてNO)、CPU10は、後述するステップS20以降の処理を実行する。これに対して、上部センサでユーザが検出された場合には(ステップS10においてYES)、CPU10は、レシーバ15から音声を出力するとともに、マイク17の音声入力ゲインをハンドセット通話用に設定する(ステップS12)。この状態は、図3の状態(a1)または状態(a2)の場合に相当する。この状態における、レシーバ15から音声を出力する際の音量およびマイク17の音声入力ゲインの大きさは、それぞれ設定可能な範囲内においてハンドセット通話用としてユーザが希望する設定値に設定されてもよい。
CPU10は、上部センサでユーザの検出が維持されているか否かを判断する(ステップS14)。当該検出が維持されている場合には(ステップS14においてYES)、CPU10は、ステップS12の処理を繰り返す。これに対して、当該検出が維持されていない場合には(ステップS14においてNO)、CPU10は、下部センサでユーザが検出されたか否かを判断する(ステップS16)。
下部センサでユーザが検出されていない(つまり、上部および下部のセンサでユーザが検出されていない)場合には(ステップS16においてNO)、CPU10は、後述するステップS30以降の処理を実行する。これに対して、ユーザが検出された(つまり、下部センサのみでユーザが検出された)場合には(ステップS16においてYES)、CPU10は、ディスプレイ14において、フォアグラウンドが通話用のアプリケーション画面か否かを判断する(ステップS18)。
フォアグラウンドが通話用のアプリケーション画面である場合には(ステップS18においてYES)、CPU10は、後述するステップS22以降の処理を実行する。これに対して、フォアグラウンドが通話用のアプリケーション画面ではない場合には(ステップS18においてNO)、CPU10は、ステップS12からの処理を繰り返す。
次に、ステップS20以降の処理を説明する。
上部センサでユーザが検出されていない場合には(ステップS10においてNO)、CPU10は、下部センサでユーザが検出されたか否かを判断する(ステップS20)。下部センサでユーザが検出されていない(つまり、上部および下部のセンサでユーザが検出されていない)場合には(ステップS20においてNO)、CPU10は、後述するステップS30以降の処理を実行する。これに対して、下部センサでユーザが検出された場合には(ステップS20においてYES)、CPU10は、音声出力を停止するとともにマイク17の音声入力ゲインを音声認識用に設定する(ステップS22)。このとき、CPU10は、音声認識用のアプリケーションを起動させる。この状態は、図3の状態(b)の場合に相当する。この状態における、マイク17の音声入力ゲインの大きさは、設定可能な範囲内において音声認識用としてユーザが希望する設定値に設定されてもよい。
上部センサでユーザが検出されていない場合には(ステップS10においてNO)、CPU10は、下部センサでユーザが検出されたか否かを判断する(ステップS20)。下部センサでユーザが検出されていない(つまり、上部および下部のセンサでユーザが検出されていない)場合には(ステップS20においてNO)、CPU10は、後述するステップS30以降の処理を実行する。これに対して、下部センサでユーザが検出された場合には(ステップS20においてYES)、CPU10は、音声出力を停止するとともにマイク17の音声入力ゲインを音声認識用に設定する(ステップS22)。このとき、CPU10は、音声認識用のアプリケーションを起動させる。この状態は、図3の状態(b)の場合に相当する。この状態における、マイク17の音声入力ゲインの大きさは、設定可能な範囲内において音声認識用としてユーザが希望する設定値に設定されてもよい。
CPU10は、音声認識処理が終了したか否かを判断する(ステップS24)。CPU10は、マイク17を介したユーザからの音声入力が終了したか否かにより当該判断を行なう。音声認識処理が終了していない場合には(ステップS24においてNO)、CPU10は、ステップS24の処理を繰り返す。これに対して、音声認識処理が終了した場合には(ステップS24においてYES)、CPU10は、入力された音声から抽出されたテキストデータを検索キーワードとして、外部サーバのデータベース200を検索し、当該検索結果をディスプレイ14に表示させる(ステップS26)。
次に、CPU10は、少なくとも上部または下部のセンサのいずれかでユーザが検出されたか否かを判断する(ステップS28)。ユーザが検出されていない場合には(ステップS28においてNO)、CPU10は、後述するステップS30以降の処理を実行する。これに対して、ユーザが検出された場合には(ステップS28においてYES)、CPU10は、ステップS12からの処理を繰り返す。
次に、ステップS30以降の処理を説明する。
ステップS30において、CPU10は、レシーバ15よりも音圧レベルの大きいスピーカ16から音声を出力するとともに、マイク17の音声入力ゲインをハンズフリー通話用に設定する(ステップS30)。これは、図3の状態(c)の場合に相当する。この状態における、スピーカ16から音声を出力する際の音量およびマイク17の音声入力ゲインの大きさは、それぞれ設定可能な範囲内においてハンズフリー通話用としてユーザが希望する設定値に設定されてもよい。典型的には、ハンズフリー通話時におけるマイク17の音声入力ゲインは、ハンドセット通話時あるいは音声認識処理時における音声入力ゲインよりも大きくなるように設定される。
ステップS30において、CPU10は、レシーバ15よりも音圧レベルの大きいスピーカ16から音声を出力するとともに、マイク17の音声入力ゲインをハンズフリー通話用に設定する(ステップS30)。これは、図3の状態(c)の場合に相当する。この状態における、スピーカ16から音声を出力する際の音量およびマイク17の音声入力ゲインの大きさは、それぞれ設定可能な範囲内においてハンズフリー通話用としてユーザが希望する設定値に設定されてもよい。典型的には、ハンズフリー通話時におけるマイク17の音声入力ゲインは、ハンドセット通話時あるいは音声認識処理時における音声入力ゲインよりも大きくなるように設定される。
次に、CPU10は、上部センサでユーザが検出されたか否かを判断する(ステップS32)。ユーザが検出された場合には(ステップS32においてYES)、CPU10は、ステップS12からの処理を繰り返す。これに対して、ユーザが検出されていない場合には(ステップS32においてNO)、CPU10は、下部センサでユーザが検出されたか否かを判断する(ステップS34)。
ユーザが検出されていない場合には(ステップS34においてNO)、CPU10は、ステップS30からの処理を繰り返す。これに対して、ユーザが検出された場合(ステップS34においてYES)、CPU10は、フォアグラウンドが通話用のアプリケーション画面であるか否かを判断する(ステップS36)。
フォアグラウンドが通話用のアプリケーション画面である場合には(ステップS36においてYES)、CPU10は、ステップS22以降の処理を実行する。これに対して、フォアグラウンドが通話用のアプリケーション画面でない場合には(ステップS36においてNO)、CPU10は、ステップS30からの処理を繰り返す。
上記によると、CPU10は、フォアグラウンドが通話用のアプリケーション画面でない場合には、下部センサでユーザが検出されたとしても音声認識用のアプリケーションを起動しない。そのため、検索結果画面が表示されているときに、ユーザが当該検索結果画面をタッチ操作しようとした場合に、下部センサでユーザの指等が検出されてしまうことによる、意図しない音声認識画面への遷移を防ぐことができる。
また、上記において、ユーザがディスプレイ14に表示された検索結果を視認しながらハンズフリー通話をした後に、ユーザがハンドセット通話を行なうような場合には、検索結果が表示された表示画面にユーザの耳などが触れてしまう場合がある。このような場合には、ユーザが意図しない画面遷移を引き起こす可能性がある。
図6は、実施の形態1に従う携帯端末装置100における検索結果の表示方式について説明するための図である。
図6を参照して、CPU10は、検索結果を表示するときに、表示画面の上半分の表示領域が網掛け表示させる(図6の状態(a))。そして、CPU10は、タッチパネル12を介して当該網掛け部分がタッチされたことを検出すると、当該網掛け表示を解除する(図6の状態(b))。つまり、ユーザは、「作者のページ」に画面を遷移させたい場合には、当該網掛け部分を一度タッチした後に、再度「ここをクリック」の部分をタッチする。これにより、ユーザの耳が表示画面に誤って触れてしまうことによる、ユーザの意図しない画面の遷移を防止することができる。
[実施の形態2]
実施の形態2では、実施の形態1に従う携帯端末装置100における音声出力方式の変形例について説明する。実施の形態2に従う携帯端末装置100の構成については、実施の形態1に従う携帯端末装置100(図2)と同様であるため、その詳細な説明は繰り返さない。
実施の形態2では、実施の形態1に従う携帯端末装置100における音声出力方式の変形例について説明する。実施の形態2に従う携帯端末装置100の構成については、実施の形態1に従う携帯端末装置100(図2)と同様であるため、その詳細な説明は繰り返さない。
実施の形態1に従う携帯端末装置100が、第1のセンサ23および第2のセンサ24の検出結果に基づいて、レシーバ15と、スピーカ16とを切り替えることで出力される音圧レベル(音量)を調整する場合について説明した。
実施の形態2に従う携帯端末装置100は、レシーバ15およびスピーカ16で出力可能な音圧レベル範囲で音量を調整することが可能な音声出力部を含む点で実施の形態1に従う携帯端末装置100と異なる。つまり、実施の形態2に従う携帯端末装置100は、第1のセンサ23および第2のセンサ24の検出結果に基づいて、当該音声出力部からの音声出力の大きさ(音量)を調整する。このとき、当該音声出力部は、実施の形態1に従うレシーバ15の位置に配置されることが好ましい。
より具体的には、実施の形態2に従う携帯端末装置100は、第1のセンサ23および第2のセンサ24のいずれにおいてもユーザが検出されていない場合の方が、少なくとも第1のセンサ23および第2のセンサ24のいずれかでユーザが検出された場合よりも、当該音声出力部からの出力音声が大きくなるように調整する。
実施の形態2では、実施の形態1における図5のステップS12において、CPU10は、当該音声出力部からの音声をハンドセット通話用の音量に調整し、ステップS30において、CPU10は、当該音声出力部からの音声をハンズフリー通話用の音量に調整する。また、CPU10は、ステップS22において、当該音声出力部からの音声を停止する。
[実施の形態3]
なお、実施の形態3として、コンピュータを機能させて、上述したフローチャートで説明したような制御を実行させるプログラムを提供することもできる。このようなプログラムは、コンピュータに付属するフレキシブルディスク、CD−ROM、ROM、RAMおよびメモリカードなどの一時的でないコンピュータ読取り可能な記録媒体にて記録させて、プログラム製品として提供することもできる。あるいは、コンピュータに内蔵するハードディスクなどの記録媒体にて記録させて、プログラムを提供することもできる。また、ネットワークを介したダウンロードによって、プログラムを提供することもできる。
なお、実施の形態3として、コンピュータを機能させて、上述したフローチャートで説明したような制御を実行させるプログラムを提供することもできる。このようなプログラムは、コンピュータに付属するフレキシブルディスク、CD−ROM、ROM、RAMおよびメモリカードなどの一時的でないコンピュータ読取り可能な記録媒体にて記録させて、プログラム製品として提供することもできる。あるいは、コンピュータに内蔵するハードディスクなどの記録媒体にて記録させて、プログラムを提供することもできる。また、ネットワークを介したダウンロードによって、プログラムを提供することもできる。
プログラムは、コンピュータのオペレーティングシステム(OS)の一部として提供されるプログラムモジュールのうち、必要なモジュールを所定の配列で所定のタイミングで呼出して処理を実行させるものであってもよい。その場合、プログラム自体には上記モジュールが含まれずOSと協働して処理が実行される。このようなモジュールを含まないプログラムも、本実施の形態にかかるプログラムに含まれ得る。
また、実施の形態3にかかるプログラムは他のプログラムの一部に組込まれて提供されるものであってもよい。その場合にも、プログラム自体には上記他のプログラムに含まれるモジュールが含まれず、他のプログラムと協働して処理が実行される。このような他のプログラムに組込まれたプログラムも、実施の形態3にかかるプログラムに含まれ得る。
[実施の形態の効果]
上述した実施の形態によると、ユーザは、通話中に電話を一旦切断して、検索したい用語を調べ直すことなく、通話状態のままスムーズに検索結果を表示させることができる。また、通話中に表示画面に触れたりするような手間を省き、簡単に音声出力の大きさを調整することができる。例えば、ユーザは、車内で着信があった場合でも、スムーズに通話を行なうことができる。
上述した実施の形態によると、ユーザは、通話中に電話を一旦切断して、検索したい用語を調べ直すことなく、通話状態のままスムーズに検索結果を表示させることができる。また、通話中に表示画面に触れたりするような手間を省き、簡単に音声出力の大きさを調整することができる。例えば、ユーザは、車内で着信があった場合でも、スムーズに通話を行なうことができる。
すなわち、本実施の形態によると、通話の際のユーザの使用態様に応じた適正な制御により利便性を向上させることが可能となる。
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した説明ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
10 CPU、11 メモリ、12 タッチパネル、13 ボタン、14 ディスプレイ、15 マイク、16 レシーバ、17 スピーカ、18 無線通信部、19 通信アンテナ、20 通信インターフェイス、21 メモリインターフェイス、22 記憶媒体、23 第1のセンサ、24 第2のセンサ、52 判断部、54 音声制御部、56 音声認識部、58 検索部、60 表示制御部、100 携帯端末装置。
Claims (5)
- 通話機能を有する携帯端末装置であって、
筐体と、
前記筐体に配置されたディスプレイと、
前記筐体において、前記ディスプレイの上方に配置された、被検出部を検出するための第1のセンサと、
前記筐体において、前記ディスプレイの下方に前記第1のセンサに対向するように配置された、被検出物を検出するための第2のセンサと、
音声を出力するための音声出力部と、
音声の入力を受け付けるための音声入力部と、
プロセッサとを備え、
前記プロセッサは、通話中における前記第1および第2のセンサの検出結果に基づいて、前記音声出力部からの音声出力の大きさを調整するとともに、前記音声入力部の音声入力ゲインの大きさを調整する、携帯端末装置。 - 前記プロセッサは、前記第1および第2のセンサのいずれにおいても被検出物が検出されていない場合に前記音声出力部から出力される音声が、少なくとも前記第1および第2のセンサのいずれかで被検出物が検出された場合に前記音声出力部から出力される音声よりも大きくなるように調整する、請求項1に記載の携帯端末装置。
- 前記プロセッサは、前記第1および第2のセンサのいずれにおいても被検出物が検出されていない場合における前記音声入力部の音声入力ゲインが、少なくとも前記第1および第2のセンサのいずれかで被検出物が検出された場合における前記音声入力部の音声入力ゲインよりも大きくなるように調整する、請求項1または2に記載の携帯端末装置。
- 前記音声入力部は、前記筐体において、前記第2のセンサの近傍に配置されており、
前記プロセッサは、前記第1のセンサにより被検出物が検出されず、かつ前記第2のセンサにより被検出物が検出された場合には、前記音声入力部に入力された音声を音声認識してテキストデータを抽出する、請求項1〜3のいずれか1項に記載の携帯端末装置。 - 外部装置と通信するための通信部をさらに備え、
前記プロセッサは、前記抽出されたテキストデータを検索キーワードとして、前記通信部を介して前記外部装置におけるデータベースを検索し、当該検索した結果を前記ディスプレイに表示させる、請求項4に記載の携帯端末装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012254289A JP2014103536A (ja) | 2012-11-20 | 2012-11-20 | 携帯端末装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012254289A JP2014103536A (ja) | 2012-11-20 | 2012-11-20 | 携帯端末装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014103536A true JP2014103536A (ja) | 2014-06-05 |
Family
ID=51025676
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012254289A Pending JP2014103536A (ja) | 2012-11-20 | 2012-11-20 | 携帯端末装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014103536A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017056621A1 (ja) * | 2015-09-30 | 2017-04-06 | シャープ株式会社 | 電子機器 |
JP2020516205A (ja) * | 2017-03-22 | 2020-05-28 | ハン ソク キム | スマートフォンを用いた通話中のアプリケーション連携システムおよび方法 |
-
2012
- 2012-11-20 JP JP2012254289A patent/JP2014103536A/ja active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017056621A1 (ja) * | 2015-09-30 | 2017-04-06 | シャープ株式会社 | 電子機器 |
JPWO2017056621A1 (ja) * | 2015-09-30 | 2018-01-11 | シャープ株式会社 | 電子機器、プログラムおよび電子機器の制御方法 |
JP2020516205A (ja) * | 2017-03-22 | 2020-05-28 | ハン ソク キム | スマートフォンを用いた通話中のアプリケーション連携システムおよび方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11023080B2 (en) | Apparatus and method for detecting an input to a terminal | |
KR102127640B1 (ko) | 휴대 단말 및 보청기와 휴대 단말에서 음원의 위치를 제공하는 방법 | |
US9596340B2 (en) | Mobile electronic device, control method, and computer program product | |
US10191717B2 (en) | Method and apparatus for triggering execution of operation instruction | |
US20090124286A1 (en) | Portable hands-free device with sensor | |
JP2008141687A (ja) | 携帯端末機器 | |
US9232035B2 (en) | Electronic device for preventing leakage of received sound | |
KR101718026B1 (ko) | 사용자 인터페이스 제공 방법 및 이를 이용하는 이동 단말기 | |
WO2019154182A1 (zh) | 应用程序的音量设置方法及移动终端 | |
JP7055721B2 (ja) | 音声認識機能を有する電子機器、その電子機器の制御方法およびプログラム | |
KR20140081445A (ko) | 휴대 단말기의 오디오 신호 제어 방법 및 장치 | |
KR20130008424A (ko) | 휴대 단말기에서 바로 가기 기능을 실행하는 장치 및 방법 | |
US8620392B2 (en) | Electronic device capable of continuing a telephone call when charging | |
US20120196540A1 (en) | Method and apparatus for a bluetooth-enabled headset with a multitouch interface | |
CN110209275B (zh) | 终端控制方法和终端 | |
WO2014010272A1 (ja) | 通信装置とその制御方法およびプログラム | |
JP6478655B2 (ja) | 携帯端末 | |
KR20140010845A (ko) | 전자장치에서 자동응답시스템 서비스 이용중 화면 꺼짐 방지를 위한 방법 및 장치 | |
JP7055722B2 (ja) | 音声認識機能を有する電子機器、その電子機器の制御方法およびプログラム | |
US9503556B2 (en) | Handling voice calls | |
CN108668018B (zh) | 移动终端、音量控制方法及相关产品 | |
CN111656303A (zh) | 数据处理装置的手势控制 | |
JP2014103536A (ja) | 携帯端末装置 | |
JP2012065190A (ja) | 携帯電話機、プログラム及び入力制御方法 | |
JP6405024B1 (ja) | 電子機器、制御方法及び制御プログラム |