JP2012208714A - 携帯電子機器 - Google Patents

携帯電子機器 Download PDF

Info

Publication number
JP2012208714A
JP2012208714A JP2011073529A JP2011073529A JP2012208714A JP 2012208714 A JP2012208714 A JP 2012208714A JP 2011073529 A JP2011073529 A JP 2011073529A JP 2011073529 A JP2011073529 A JP 2011073529A JP 2012208714 A JP2012208714 A JP 2012208714A
Authority
JP
Japan
Prior art keywords
user
image
touch panel
relative position
phone terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011073529A
Other languages
English (en)
Other versions
JP5865597B2 (ja
Inventor
Norio Natsume
教雄 夏目
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2011073529A priority Critical patent/JP5865597B2/ja
Publication of JP2012208714A publication Critical patent/JP2012208714A/ja
Application granted granted Critical
Publication of JP5865597B2 publication Critical patent/JP5865597B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】利用者が入力した操作を高い精度で検出することができる携帯電子機器を提供すること。
【解決手段】筐体と、前記筐体に配置された表示部と、前記表示部に重畳して配置されたタッチセンサとを備えるタッチパネルと、利用者と前記タッチパネルとの相対位置を検出する相対位置検出手段と、前記相対位置検出手段で検出した前記利用者と前記タッチパネルとの相対位置に基づいて、前記タッチパネルの前記表示部に表示させる画像と前記画像に対応した前記タッチセンサの検出領域との対応関係を調整する制御部と、を有することで上記課題を解決する。
【選択図】図9

Description

本発明は、タッチパネルを備える携帯電子機器に関する。
近年、直感的な操作を可能にするとともに、キーボードのように物理的に大きな面積を必要とするデバイスを具備しない入力装置として、画像を表示する表示部と当該表示部に表示させた画像に対する操作を検出するタッチセンサとで構成されるタッチパネルを用いる装置がある。入力装置としてタッチパネルを備える電子機器では、入力精度を向上させるために、タッチセンサでの検出と表示部に表示させた画像との位置関係を補正することが提案されている(特許文献1、特許文献2参照)。
特開2001−67186号公報 特開2004−280590号公報
しかしながら、特許文献1および2に記載の補正方法は、利用者が入力した情報に基づいて学習することで補正を行うが、利用者が誤って入力した場合も当該入力に基づいて学習を行うため、補正の精度に限界がある。また、学習機能を用いて補正を行うためには、入力した履歴を蓄積していく必要があり、この処理のために記憶領域や処理領域を一定領域使用することになり、記憶機能、演算機能に負担をかけてしまう。また、表示位置と接触位置とのずれの補正では、利用者の認識とのずれを補正できない場合もある。
本発明は、上記に鑑みてなされたものであって、利用者が入力した操作を高い精度で検出することができる携帯電子機器を提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明は、電子機器であって、筐体と、前記筐体に配置された表示部と、前記表示部に重畳して配置されたタッチセンサとを備えるタッチパネルと、利用者と前記タッチパネルとの相対位置を検出する相対位置検出手段と、前記相対位置検出手段で検出した前記利用者と前記タッチパネルとの相対位置に基づいて、前記タッチパネルの前記表示部に表示させる画像と前記画像に対応した前記タッチセンサの検出領域との対応関係を調整する制御部と、を有することを特徴とする。
また、前記相対位置検出手段は、前記筐体に配置され、前記タッチパネルに向かい合う領域の画像を撮影するカメラを有し、前記カメラで撮影した画像に含まれる利用者の顔の位置を抽出し、当該顔の位置に基づいて前記利用者と前記タッチパネルとの相対位置を検出することが好ましい。
また、前記相対位置検出手段は、前記利用者の顔として利用者の目の位置を抽出し、当該目の位置に基づいて前記利用者と前記タッチパネルとの相対位置を検出することが好ましい。
また、前記相対位置検出手段は、前記筐体の向きを検出する姿勢検出センサを有し、前記姿勢検出センサで検出した前記筐体の向きと予め設定された関係とに基づいて前記利用者と前記タッチパネルとの相対位置を検出することが好ましい。
また、前記制御部は、前記タッチパネルの前記表示部に画像を表示させていない状態から画像を表示させる状態となった場合、前記タッチパネルの前記表示部に表示させる画像と前記画像に対応した前記タッチセンサの検出領域との対応関係を調整することが好ましい。
また、前記筐体の加速度を検出する加速度センサをさらに有し、前記制御部は、前記加速度センサで設定した値以上の加速度を検出した場合、前記タッチパネルの前記表示部に表示させる画像と前記画像に対応した前記タッチセンサの検出領域との対応関係を調整することが好ましい。
また、前記制御部は、前記利用者が前記タッチパネルの正面となる位置を基準として、前記タッチパネルの正面に対して前記利用者が傾いている向きと同じ方向に、前記タッチパネルの前記表示部に表示させる画像に対して前記画像に対応した前記タッチセンサの検出領域をずらすことが好ましい。
また、前記制御部は、前記利用者が入力した操作の押し間違いの頻度を検出し、当該押し間違いの頻度に基づいて操作対象と検出領域とのズレ量をさらに調整することが好ましい。
前記制御部は、起動させ前記表示部に操作対象を表示させるアプリケーションの種類に応じて、操作対象と検出領域とのズレ量を変更することが好ましい。
前記制御部は、前記利用者が入力した補正操作に基づいて前記対応関係をさらに調整することが好ましい。
本発明にかかる携帯電子機器は、利用者が入力した操作を高い精度で検出することができるという効果を奏する。
図1は、携帯電話端末の外観を示す正面図である。 図2は、携帯電話端末の機能の概略構成を示すブロック図である。 図3は、携帯電話端末と利用者との関係の一例を示す斜視図である。 図4は、携帯電話端末と利用者との相対位置の一例を示す模式図である。 図5は、携帯電話端末で撮影した画像の一例を示す模式図である。 図6は、表示部に表示する画像とタッチセンサの検出領域との関係の一例を示す説明図である。 図7は、携帯電話端末と利用者との相対位置の一例を示す模式図である。 図8は、携帯電話端末で撮影した画像の一例を示す模式図である。 図9は、表示部に表示する画像とタッチセンサの検出領域との関係の一例を示す説明図である。 図10は、携帯電話端末の調整動作の処理の一例を示すフロー図である。 図11は、携帯電話端末の調整動作の処理の一例を示すフロー図である。 図12は、携帯電話端末で撮影した画像の一例を示す模式図である。 図13は、表示部に表示する画像とタッチセンサの検出領域との関係の一例を示す説明図である。 図14は、携帯電話端末で撮影した画像の一例を示す模式図である。 図15は、表示部に表示する画像とタッチセンサの検出領域との関係の一例を示す説明図である。 図16は、携帯電話端末で撮影した画像の一例を示す模式図である。 図17は、表示部に表示する画像とタッチセンサの検出領域との関係の一例を示す説明図である。 図18は、表示部に表示する画像とタッチセンサの検出領域との関係の一例を示す説明図である。
以下、本発明につき図面を参照しつつ詳細に説明する。なお、以下の説明により本発明が限定されるものではない。また、以下の説明における構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。以下においては、電子機器として携帯電話端末を例として説明するが、本発明の適用対象は携帯電話端末に限定されるものではなく、タッチパネルを備える各種装置、例えば、PHS(Personal Handy-phone System)、PDA、ポータブルナビゲーション装置、パーソナルコンピュータ、ゲーム機等に対しても本発明は適用できる。
図1は、本発明の携帯電子機器の一実施形態である携帯電話端末1の外観を示す正面図であり、携帯電話端末1は、薄板状の筐体12を有する。携帯電話端末1は、筐体12の表面に、タッチパネル2と、ボタン20、ボタン22及び入力デバイス24からなる入力部3と、レシーバ7と、マイク8と、カメラ16と、が配置されている。タッチパネル2は、板状の筐体12の面積が最も広い面に配置されている。また、入力部3も、筐体12のタッチパネル2が配置されている面の、長手方向の一方の端部に配置されている。入力部3は、短手方向の一方から他方に向かって、ボタン20、入力デバイス24、ボタン22の順で配置されている。また、レシーバ7は、筐体12のタッチパネル2が配置されている面の長手方向の他方の端部、つまり、入力部3が配置されている端部とは反対側の端部に配置されている。また、マイク8は、筐体12のタッチパネル2が配置されている面の長手方向の一方の端部、つまり、入力部3が配置されている端部に配置されている。また、カメラ16は、タッチパネル2が配置されている面に配置されている。より具体的には、カメラ16は、タッチパネル2が配置されている面のレシーバ7が配置されている端部に画像を撮影する撮影窓を露出した状態で配置されている。
タッチパネル2は、文字、図形、画像等を表示するとともに、指、スタイラス、ペン(ペンの先端、棒状部材の先端)等(以下、単に「指」という)を用いてタッチパネル2に対して行われる各種動作を検出する。例えば、携帯電話端末1は、利用者から文字の入力を受け付けるために、タッチパネル2上に仮想キーボードを表示させる。携帯電話端末1は、タッチパネル2上に仮想キーボードを表示させた状態で、指によってタッチパネル2に入力される各種動作を検出し、仮想キーボードのどのキーが押下されたか、接触されたかを検出し、押下、接触を検出したキーを入力したキーとすることで、文字入力を行うことができる。また、タッチパネル2は、文字の入力によらず、表示させている画像と、指によってタッチパネル2に対して行われる各種動作とに基づいて、各種操作の入力を検出し、入力された操作に基づいて各種制御を行う。
入力部3は、ボタン20、22が押下された場合に、押下されたボタンに対応する機能を起動させる。また、入力部3は、入力デバイス24に入力された動作も操作として検出し、入力された操作に基づいて各種制御を行う。例えば、入力デバイス24は、方向指示操作や決定操作を検出する。入力デバイス24は、タッチパッド、光学式入力デバイス、4方及び中央にボタンを備える入力デバイス等で構成される。
カメラ16は、画像を撮影する撮影装置である。撮影窓が、筐体12のタッチパネル2が配置されている面に露出して配置されている。カメラ16は、撮影窓から入射した撮影領域の光を読み取ることで、タッチパネル2に向かい合う面のうち所定の角度領域(撮影領域)の画像を取得する。
次に、携帯電話端末1の機能と制御部との関係を説明する。図2は、図1に示す携帯電話端末1の機能の概略構成を示すブロック図である。図2に示すように携帯電話端末1は、タッチパネル2と、入力部3と、電源部5と、通信部6と、レシーバ7と、マイク8と、記憶部9と、主制御部10と、RAM(Random Access Memory)11と、カメラ16と、加速度センサ18と、を有する。なお、本実施形態では、カメラ16の撮影機能と、カメラで撮影した画像を処理する制御部の該当機能と、の組み合わせが相対位置検出手段となる。
タッチパネル2は、表示部2Bと、表示部2Bに重畳されたタッチセンサ2Aとを有する。タッチセンサ2Aは、指を用いてタッチパネル2に対して行われた各種動作を、動作が行われた場所のタッチパネル2上での位置とともに検出する。タッチセンサ2Aによって検出される動作には、指をタッチパネル2の表面に接触させる動作や、指をタッチパネル2の表面に接触させたまま移動させる動作や、指をタッチパネル2の表面から離す動作が含まれる。なお、タッチセンサ2Aは、感圧式、静電式等のいずれの検出方式を採用していてもよい。表示部2Bは、例えば、液晶ディスプレイ(LCD、Liquid Crystal Display)や、有機EL(Organic Electro−Luminescence)パネル等で構成され、文字、図形、画像等を表示する。
入力部3は、上述したようにボタン20、22と、入力デバイス24とを有する。ボタン20、22は、物理的な入力(押下)を通じて利用者の操作を受け付け、受け付けた操作に対応する信号を主制御部10へ送信する。また、入力デバイス24も、利用者の操作を受け付け、受け付けた操作に対応する信号を主制御部10へ送信する。
電源部5は、蓄電池または外部電源から得られる電力を、主制御部10を含む携帯電話端末1の各機能部へ供給する。通信部6は、基地局によって割り当てられるチャネルを介し、基地局との間でCDMA方式等による無線信号回線を確立し、基地局との間で電話通信及び情報通信を行う。レシーバ7は、電話通信における相手側の音声や着信音等を出力する。マイク8は、利用者等の音声を電気的な信号へ変換する。
記憶部9は、例えば、不揮発性メモリや磁気記憶装置であり、主制御部10での処理に利用されるプログラムやデータを保存する。具体的には、記憶部9は、メールの送受信や閲覧のためのメールプログラム9Aや、WEBページの閲覧のためのブラウザプログラム9Bや、カメラ16で画像を撮影するためのカメラプログラム9Cや、カメラ16で撮影した画像に含まれる顔を抽出する顔認識プログラム9Dや、表示部2Bに表示させる画像とタッチセンサ2Aの検出領域との対応関係を調整する操作検出位置調整プログラム9Eや、各種プログラムを実行する際に用いる各種条件を対応付けた処理条件テーブル9Fを記憶する。また、記憶部9には、携帯電話端末1の基本的な機能を実現するオペレーティングシステムプログラムや、氏名、電話番号、メールアドレス等が登録されたアドレス帳データ等の他のプログラムやデータも記憶される。また、記憶部9には、タッチパネル2に入力された入力操作に基づいて制御動作、処理を決定するプログラム等も記憶される。なお、制御動作、処理とは、携帯電話端末1で実行する各種動作、処理が含まれ、例えば、カーソル、ポインタの移動、画面の表示切替、文字入力処理、各種アプリケーションの起動処理、終了処理がある。
主制御部10は、例えば、CPU(Central Processing Unit)であり、携帯電話端末1の動作を統括的に制御する。具体的には、主制御部10は、記憶部9に記憶されているデータを必要に応じて参照しつつ、記憶部9に記憶されているプログラムを実行して、タッチパネル2、入力部3、通信部6、カメラ16、加速度センサ18、等を制御することによって各種処理を実行する。主制御部10は、記憶部9に記憶されているプログラムや、処理を実行することによって取得/生成/加工されたデータを、一時的な記憶領域を提供するRAM11に必要に応じて展開する。なお、主制御部10が実行するプログラムや参照するデータは、通信部6による無線通信でサーバ装置からダウンロードすることとしてもよい。
カメラ16は、上述したように画像を撮影する撮影窓が、筐体12から露出して配置されており、撮影領域の画像を取得する撮像機構である。
加速度センサ18は、筐体12に加わる加速度を検出する検出器である。ここで、加速度センサ18としては、種々の方法で加速度を検出する検出器を用いることができ、例えば、静電容量の変化や、ピエゾ抵抗の変化、相対位置の変化等で加速度を検出する検出器を用いることができる。また、加速度センサ18は、加速度の大きさに加え加速度の方向を検出する。加速度センサ18は、操作者が筐体12を移動させたり振ったりする際に筐体12に作用する加速度を検出し、検出した加速度情報を主制御部10に送る。主制御部10は、操作検出位置調整プログラム9Eを実行し、加速度センサ18の検出結果を解析することで、具体的には検出した加速度の情報を積算することで筐体12の姿勢の変化を算出し、携帯電話端末1(筐体12)の移動を検出することができる。
次に、図3から図9を用いて、操作検出位置の調整方法の一例について説明する。図3は、携帯電話端末と利用者との関係の一例を示す斜視図である。図4は、携帯電話端末と利用者との相対位置の一例を示す模式図であり、図5は、携帯電話端末で撮影した画像の一例を示す模式図であり、図6は、表示部に表示する画像とタッチセンサの検出領域との関係の一例を示す説明図である。図7は、携帯電話端末と利用者との相対位置の一例を示す模式図であり、図8は、携帯電話端末で撮影した画像の一例を示す模式図であり、図9は、表示部に表示する画像とタッチセンサの検出領域との関係の一例を示す説明図である。
なお、図3から図9に示す操作検出位置の調整の処理は、カメラプログラム9C、顔認識プログラム9D、操作検出位置調整プログラム9Eが提供する機能に基づいて繰り返し実行される。より具体的には、携帯電話端末1は、カメラプログラム9Cが提供する機能(画像撮影機能)、顔認識プログラム9Dが提供する機能(顔抽出機能)により取得した各種検出結果および画像を操作検出位置調整プログラム9Eが提供する機能に基づいて解析して、表示部2Bに表示させる画像とタッチセンサ2Aの検出領域との対応関係を調整する。つまり、携帯電話端末1の主制御部10は、各部を制御し、表示部2Bに表示させる画像の位置と、当該画像への操作として検出する検出領域の位置との相対位置関係を調整する。
まず、図3に示すように、利用者Hは、携帯電話端末1のタッチパネル2を操作する場合、基本的にタッチパネル2と向かい合う状態で操作を行う。携帯電話端末1は、利用者Hにより入力されるタッチパネル2への操作を検出する場合、カメラ16を起動させ、図4に示すようにカメラ16と向かい合う撮影領域40の画像を取得する。ここで、カメラ16は、タッチパネル2が配置されている面と同じ面に撮影窓が配置されている。従って、撮影領域40は、タッチパネル2に向かい合っている領域となる。
図4に示す相対位置で携帯電話端末1がカメラ16によって撮影する撮影領域40の画像は、利用者Hの顔を含んだ画像となる。なお、図4の利用者Hと携帯電話端末1との相対位置は、撮影領域40の中心42に利用者Hの目がある位置となる。なお、中心42は、タッチパネル2の表面に直交する方向に延びている。携帯電話端末1は、図4に示す相対位置でカメラ16により撮影を行うと図5に示す画像50が取得される。画像50は画像50の中央に利用者Haが映っている。また、画像50は、向かい合う向きで見ると利用者Haの右目Erが画面左側に表示され、左目Elが画面右側に表示される。
携帯電話端末1は、図5に示す画像50を取得した場合、取得した画像50を解析し、画像50に含まれる利用者Haを抽出する。携帯電話端末1は、利用者Haを抽出したら、画像50における利用者Haの位置、本実施形態では、利用者Haの目の位置を特定する。携帯電話端末1は、特定した目の位置に基づいて、表示部2Bに表示させる画像とタッチセンサ2Aの検出領域との対応関係を設定する。
携帯電話端末1は、図4および図5に示すように利用者Haが画像50の中央にあり、中心42と利用者Hの目が重なる場合、図6に示すように、タッチパネル2に表示させる画像の操作対象60と、操作対象60への操作を検出する検出領域62と、を同一位置とする。つまり、携帯電話端末1は、タッチパネル2の表面における操作対象60の位置と検出領域62の位置とが同一位置、操作対象60の中心と検出領域62の中心とが重なる位置とする。なお、操作対象60は、利用者が操作を入力対象としてタッチパネル2の表示部2Bに表示させる画像であり、ボタンや項目やウィンドウである。
次に、利用者Hと携帯電話端末1との相対位置が図7に示す関係の場合について説明する。なお、図7の利用者Hと携帯電話端末1との相対位置は、カメラ16を中心として、撮影領域40の中心42よりも下側に所定角度回転させた線分44に利用者Hの目がある位置となる。携帯電話端末1は、図7に示す相対位置でカメラ16により撮影を行うと図8に示す画像50aが取得される。画像50aは中央よりも下側の領域に利用者Haが映っている。また、画像50aも、向かい合う向きで見ると利用者Haの右目Erが画面左側に表示され、左目Elが画面右側に表示される。
携帯電話端末1は、図8に示す画像50aを取得した場合、取得した画像50aを解析し、画像50aに含まれる利用者Haを抽出し、画像50aにおける利用者Haの目の位置を特定する。携帯電話端末1は、特定した目の位置に基づいて、表示部2Bに表示させる画像とタッチセンサ2Aの検出領域との対応関係を設定する。
携帯電話端末1は、図7および図8に示すように利用者Haが画像50の中央よりも下側にあり、利用者Hの目が中心よりも下側にある場合、図9に示すように、操作対象60に対して検出領域62aを画面下側の位置とする。つまり、携帯電話端末1は、検出領域62の中心が操作対象60の中心よりも下側となる位置とする。つまり、携帯電話端末1は、操作対象60と検出領域62aとの位置関係を、図9に示すように、タッチパネル2の正面からタッチパネル2を見た場合、操作対象60の上側の一部は、検出領域62aが重なっておらず、検出領域62aの下側の一部は、操作対象60が重なっていない位置関係とする。
携帯電話端末1は、このように、カメラ16で撮影した画像に基づいて、タッチパネル2と利用者Hとの相対位置を検出し、検出した相対位置に基づいて操作対象60に対して検出領域62をずらすことで、タッチパネル2と利用者Hとの相対位置に即した検出領域62を設定することができる。これにより、利用者が意図した入力をより高い精度で検出することができる。
また、携帯電話端末1は、カメラ16を用いてタッチパネル2と利用者Hとの相対位置を検出するため、利用者Hと携帯電話端末1との姿勢によらず、操作対象60に対する検出領域62を設定することができる。つまり、利用者H(の顔)とタッチパネル2との相対関係によって制御することで、利用者が寝ている場合、座っている場合、立っている場合のいずれでも、同様に制御することができる。
また、携帯電話端末1は、検出したタッチパネル2と利用者Hとの相対位置に基づいて、操作対象60に対する検出領域62の位置を調整するため、利用者の操作履歴等を学習し記憶することなく、操作対象60の位置に対する検出領域62の位置を調整することができる。これにより、携帯電話端末1は、簡単な処理で、操作対象60の位置に対する検出領域62の位置を適切に調整することができる。
携帯電話端末1は、利用者の目と操作対象60とを結んだ領域が検出領域62となるように、操作対象60に対して検出領域62をずらすことが好ましい。これにより、利用者は、目で見た操作対象60にタッチすることで、検出領域62にタッチすることができる。これにより、利用者が意図した入力をより高い精度で検出することができる。
携帯電話端末1は、図4から図6に示すように、利用者Hがタッチパネル2の正面、撮影領域40の中心42と利用者Hの目とが重なる位置関係の場合を基準として、基準位置からのずれ量に基づいて、操作対象60に対して検出領域62をずらすことが好ましい。基準位置を設定することで、操作対象60に対して検出領域62をずらす量を簡単に算出することができる。
次に、図10および図11を用いて、携帯電話端末1の主制御部10によるタッチパネル2の調整動作の処理について説明する。ここで、図10および図11は、それぞれ携帯電話端末の調整動作の処理の一例を示すフロー図である。なお、図10および図11に示す処理は、上述したように、カメラプログラム9C、顔認識プログラム9D、操作検出位置調整プログラム9Eが提供する機能に基づいて繰り返し実行される。より具体的には、携帯電話端末1は、カメラプログラム9Cが提供する機能(画像撮影機能)、顔認識プログラム9Dが提供する機能(顔抽出機能)により取得した各種検出結果および画像を操作検出位置調整プログラム9Eが提供する機能に基づいて解析して、表示部2Bに表示させる画像とタッチセンサ2Aの検出領域との対応関係を調整する。なお、主制御部10は、タッチパネル2がOFFになっている場合、つまりタッチパネル2で操作を検出していない場合、図10に示す処理を繰り返し実行する。
主制御部10は、ステップS12として、タッチパネルがONになったかを判定する。主制御部10は、ステップS12でタッチパネル2がONになっていない(No)、つまりOFFのままであると判定したら、本処理を終了する。また、主制御部10は、ステップS12でタッチパネル2がONになった(Yes)と判定したら、ステップS14としてカメラ16の起動処理を行う。
主制御部10は、ステップS14でカメラ16を起動したら、ステップS16として、顔認識にて顔と目の位置を算出する。つまり、主制御部10は、カメラ16により画像の撮影を行い、顔認識プログラム9Dを処理することで撮影した画像を解析して画像に含まれる利用者の顔と目の位置を算出する。
主制御部10は、ステップS16で顔と目の位置を算出したら、ステップS18として、真正面データと比較して角度を算出する。つまり、主制御部10は、ステップS18として、ステップS16で取得した利用者の顔と目の位置と、基準となる真正面データの利用者の顔と目の位置と、を比較して、ステップS16で検出した利用者の顔と目の位置との基準に対する角度を検出する。なお、真正面のデータは、設定操作、初期操作で真正面における利用者の画像を登録しても、代表的なサンプル画像を用いて設定してもよい。
主制御部10は、ステップS18で角度を検出したら、ステップS20として正面から見ているかを判定する。つまり、ステップS18で算出した角度が0度または、0度に近似できる角度であるかを判定する。主制御部10は、ステップS20で正面から見ている(Yes)と判定したら、本処理を終了する。つまり、操作対象60に対して検出領域62をずらす処理を行わずに、本処理を終了する。この場合、検出領域62の中心は、操作対象60の中心と一致する状態で対応付けられる。
主制御部10は、ステップS20で正面から見ていない(No)、つまりステップS18で算出した角度が0度に近似できる角度ではないと判定したら、ステップS22として角度を基にずれを補正する。つまり、ステップS18で算出した角度に基づいて、操作対象60に対して検出領域62をずらす処理を行う。この場合、検出領域62の中心は、操作対象60の中心に対して、所定距離または所定角度ずれた状態となる。主制御部10は、ステップS22の処理を行ったら、本処理を終了する。
次に、図11を用いてタッチパネル2がONの状態の調整処理について説明する。主制御部10は、タッチパネル2がONになっている場合、つまりタッチパネル2で操作を検出している場合、図11に示す処理を繰り返し実行する。
主制御部10は、ステップS32として、加速度センサ18で端末の姿勢の変化(傾きの変化)が検出されたかを判定する。主制御部10は、ステップS32で端末の姿勢が変化していない(No)、と判定したら、本処理を終了する。つまり、主制御部10は、現状の設定のままタッチパネル2で操作対象60に対する検出領域62を設定する。主制御部10は、ステップS32で端末の姿勢が変化した(Yes)と判定したら、ステップS33としてずれをリセットする処理を実行する。つまり、操作対象60と検出領域62との関係を初期状態に戻す。主制御部10は、ステップS33の処理を行ったら、ステップS34としてカメラ16の起動処理を行う。
主制御部10は、ステップS34でカメラ16を起動したら、ステップS36として、顔認識にて顔と目の位置を算出する。つまり、主制御部10は、カメラ16により画像の撮影を行い、顔認識プログラム9Dを処理することで撮影した画像を解析して画像に含まれる利用者の顔と目の位置を算出する。
主制御部10は、ステップS36で顔と目の位置を算出したら、ステップS38として、真正面データと比較して角度を算出する。つまり、主制御部10は、ステップS38として、ステップS36で取得した利用者の顔と目の位置と、基準となる真正面データの利用者の顔と目の位置と、を比較して、ステップS36で検出した利用者の顔と目の位置との基準に対する角度を検出する。
主制御部10は、ステップS38で角度を検出したら、ステップS40として正面から見ているかを判定する。つまり、ステップS38で算出した角度が0度または、0度に近似できる角度であるかを判定する。主制御部10は、ステップS40で正面から見ている(Yes)と判定したら、本処理を終了する。つまり、操作対象60に対して検出領域62をずらす処理を行わずに、本処理を終了する。この場合、検出領域62の中心は、操作対象60の中心と一致する状態で対応付けられる。
主制御部10は、ステップS40で正面から見ていない(No)、つまりステップS38で算出した角度が0度に近似できる角度ではないと判定したら、ステップS42として角度を基にずれを補正する。つまり、ステップS38で算出した角度に基づいて、操作対象60に対して検出領域62をずらす処理を行う。この場合、検出領域62の中心は、操作対象60の中心に対して、所定距離または所定角度ずれた状態となる。主制御部10は、ステップS42の処理を行ったら、本処理を終了する。
携帯電話端末1は、図10および図11のフロー図の処理を実行することで、タッチパネル2の起動時、また、使用中に携帯電話端末1の姿勢の変化が検出される毎に、操作対象60と検出領域62との相対関係を適切な位置関係に調整する。これにより、利用者が意図した入力をより高い精度で検出することができる。
なお、上記実施形態では、加速度センサ18での検出結果に基づいて、相対位置を再調整するタイミングを検出したがこれに限定されない。例えば、携帯電話端末1は、一定時間間隔で相対位置の再調整を行うようにしてもよい。また、利用者にとって特定の操作が入力された場合に相対位置の再調整を行うようにしてもよい。
また、図4から図9に示す例では、携帯電話端末1を縦向きで使用する場合で説明したが、これに限定されない。以下、図12から図15を用いて携帯電話端末1を横向きで使用した場合について説明する。ここで、図12は、携帯電話端末で撮影した画像の一例を示す模式図であり、図13は、表示部に表示する画像とタッチセンサの検出領域との関係の一例を示す説明図である。図14は、携帯電話端末で撮影した画像の一例を示す模式図であり、図15は、表示部に表示する画像とタッチセンサの検出領域との関係の一例を示す説明図である。
利用者Hは、携帯電話端末1のタッチパネル2を横向きで操作する場合も、基本的にタッチパネル2と向かい合う状態で操作を行う。携帯電話端末1は、利用者Hにより入力されるタッチパネル2への操作を検出する場合、カメラ16を起動させ画像を取得する。
まず、携帯電話端末1がカメラ16で図12に示す画像50bを取得した場合について説明する。画像50bは画像50bの中央に利用者Haが映っている。また、画像50bも、向かい合う向きで見ると利用者Haの右目Erが画面左側に表示され、左目Elが画面右側に表示される。携帯電話端末1は、図12に示す画像50bを取得した場合、取得した画像50bを解析し、画像50bに含まれる利用者Haを抽出する。携帯電話端末1は、利用者Haを抽出したら、画像50bにおける利用者Haの位置、本実施形態では、利用者Haの目の位置を特定する。携帯電話端末1は、特定した目の位置に基づいて、表示部2Bに表示させる画像とタッチセンサ2Aの検出領域との対応関係を設定する。
携帯電話端末1は、図12に示すように利用者Haが画像50bの中央にある場合、図13に示すように、タッチパネル2に表示させる画像の操作対象70と、操作対象70への操作を検出する検出領域72と、を同一位置とする。つまり、携帯電話端末1は、タッチパネル2の表面における操作対象70の位置と検出領域72の位置とが同一位置、操作対象70の中心と検出領域72の中心とが重なる位置とする。
次に、携帯電話端末1は、カメラ16で図14に示す画像50cを取得した場合について説明する。画像50cは中央よりも下側の領域に利用者Haが映っている。また、画像50cも、向かい合う向きで見ると利用者Haの右目Erが画面左側に表示され、左目Elが画面右側に表示される。携帯電話端末1は、図14に示す画像50cを取得した場合、取得した画像50cを解析し、画像50cに含まれる利用者Haを抽出し、画像50cにおける利用者Haの目の位置を特定する。携帯電話端末1は、特定した目の位置に基づいて、表示部2Bに表示させる画像とタッチセンサ2Aの検出領域との対応関係を設定する。
携帯電話端末1は、図14に示すように利用者Haが画像50cの中央よりも下側にあり、利用者Haの目が中心よりも下側にある場合、図15に示すように、操作対象70に対して検出領域72aを画面下側の位置とする。つまり、携帯電話端末1は、検出領域72の中心が操作対象70の中心よりも下側となる位置とする。つまり、携帯電話端末1は、操作対象70と検出領域72aとの位置関係を、図15に示すように、タッチパネル2の正面からタッチパネル2を見た場合、操作対象70の上側の一部は、検出領域72aが重なっておらず、検出領域72aの下側の一部は、操作対象70が重なっていない位置関係とする。
携帯電話端末1は、このように、タッチパネル2を横向きで使用する場合も、カメラ16で撮影した画像に基づいて、タッチパネル2と利用者Hとの相対位置を検出し、検出した相対位置に基づいて操作対象70に対して検出領域72をずらすことで、タッチパネル2と利用者Hとの相対位置に即した検出領域72を設定することができる。これにより、利用者が意図した入力をより高い精度で検出することができる。
また、上記実施形態の携帯電子機器1は、利用者Hがタッチパネル2に対して基準位置の上下方向に移動している場合について説明したがこれに限定されない。携帯電子機器1は、利用者Hがタッチパネル2に対して基準位置の左右方向に移動している場合についても同様である。なお、左右方向は、撮影した画面上の左右方向と、操作対象70に対して検出領域72をずらす左右方向を反転する必要がある。
次に、携帯電話端末1は、カメラ16で図16に示す画像50dを取得した場合について説明する。画像50dは中央よりも左側の領域に利用者Haが映っている。また、画像50bも、向かい合う向きで見ると利用者Haの右目Erが画面左端に表示され、左目Elが右目Erよりも画面右側に表示される。携帯電話端末1は、図16に示す画像50dを取得した場合、取得した画像50dを解析し、画像50dに含まれる利用者Haを抽出し、画像50dにおける利用者Haの目の位置を特定する。携帯電話端末1は、特定した目の位置に基づいて、表示部2Bに表示させる画像とタッチセンサ2Aの検出領域との対応関係を設定する。
携帯電話端末1は、図16に示すように利用者Haが画像50dの中央よりも左側にあり、利用者Haの目が中心よりも左側にある場合、図17に示すように、操作対象60に対して検出領域62bを画面右側の位置とする。つまり、携帯電話端末1は、検出領域62の中心が操作対象60の中心よりも右側となる位置とする。つまり、携帯電話端末1は、操作対象60と検出領域62bとの位置関係を、図17に示すように、タッチパネル2の正面からタッチパネル2を見た場合、操作対象60の左側の一部は、検出領域62bが重なっておらず、検出領域62bの右側の一部は、操作対象60が重なっていない位置関係とする。
携帯電話端末1は、このように、相対位置が基準位置に対して左右方向にずれた場合も、カメラ16で撮影した画像に基づいて、タッチパネル2と利用者Hとの相対位置を検出し、検出した相対位置に基づいて操作対象60に対して検出領域62をずらすことで、タッチパネル2と利用者Hとの相対位置に即した検出領域62を設定することができる。これにより、利用者が意図した入力をより高い精度で検出することができる。
次に、図18は、表示部に表示する画像とタッチセンサの検出領域との関係の一例を示す説明図である。上記実施形態では、タッチパネル2の全領域で、操作対象60に対する検出領域62のずれ量を一定としたがこれに限定されない。例えば、図18に示すように、タッチパネル2の上下方向の位置に応じて、操作対象60に対する検出領域62のずれ量を変化させてもよい。ここで、図18に示すタッチパネル2は、操作対象60が、縦に4個、横に3個の格子状に合計12個配列されている。また、利用者とタッチパネル2との相対位置は、利用者がタッチパネル2の中心よりも下側となる位置となる関係である。携帯電話端末1は、12個の対象領域のうち、画面の上下方向の一番下側の3個の操作対象60のそれぞれに対応する検出領域82のズレ量を小さくし、画面の上下方向の下側2段目の3個の操作対象60のそれぞれに対応する検出領域84のズレ量を検出領域82のズレ量よりも大きくし、画面の上下方向の下側3段目の3個の操作対象60のそれぞれに対応する検出領域86のズレ量を検出領域84のズレ量よりも大きくし、画面の上下方向の一番上の段の3個の操作対象60のそれぞれに対応する検出領域88のズレ量を検出領域86のズレ量よりも大きくする。つまり、図18に示すタッチパネル2は、画面の上下方向において、下から上に移動するにしたがってズレ量を大きくする設定となる。
このように、携帯電話端末1は、利用者とタッチパネル2との相対位置のずれに対応して、タッチパネル2の画面の各位置でのズレ量を調整することで、利用者が意図した入力をより高い精度で検出することができる。具体的には、利用者から遠い領域のズレ量は大きく、利用者から近い領域のズレ量は小さくすることで、利用者から見たタッチパネル2の操作対象60と検出領域とが対応した位置関係となる。このため、利用者が意図した入力をより高い精度で検出することができる。
また、携帯電話端末1は、利用者とタッチパネル2との相対位置を検出する相対位置検出手段として、カメラ16を用いることで、簡単な処理、安価な装置構成、既存の装置構成で、相対位置を好適に検出することができる。なお、相対位置検出手段は、カメラ16に限定されない。タッチパネル2に対応する領域の状態を検出することができれば、タッチパネル2に対応する領域にいる人物を検出することができれば検出装置は特に限定されない。例えば、赤外線センサ、Time-of-Flight法(光源から出た光が対象物で反射し、センサに届くまでの光の時間と光の速度から、対象物までの距離を算出する方法)を用いた検出装置等を用いることができる。
また、相対位置検出手段は、タッチパネル2に対応する領域の状態を検出する装置を用いることが好ましいがこれに限定されない。相対位置検出手段は、筐体の向きを検出する姿勢検出センサを有し、姿勢検出センサで検出した筐体の向きと予め設定された関係とに基づいて利用者とタッチパネルとの相対位置を検出する構成としてもよい。このような構成としても、精度は低下するが簡単な処理で相対位置を検出することができる。
また、携帯電話端末1は、利用者が入力した操作履歴を蓄積し、利用者の入力の特性に基づいて設定する操作対象に対応する検出領域のズレ量を補正するようにしてもよい。つまり、利用者とタッチパネル2との相対位置に基づいて操作対象に対応する検出領域のズレ量を設定し、利用者の入力の特性に基づいて設定したズレ量をさらに補正してもよい。利用者の入力の特性としては、例えば、接触位置が検出領域の中央に対してどの程度ずれているか、接触位置が検出領域の中央に対してどの方向にずれやすいのか等の特性である。これにより、利用者の癖や習性を加味してズレ量を設定することができる。また、利用者とタッチパネル2との相対位置の条件に分けて利用者の入力の特性を検出することで、利用者とタッチパネル2との相対位置に適応した適切なずれ量の補正を行うことができる。
また、携帯電話端末1は、利用者が入力した操作の押し間違いの頻度を検出し、当該押し間違いの頻度に基づいて操作対象と検出領域とのズレ量をさらに調整するようにしてもよい。なお、押し間違いの判定は、種々の方法で実行することができる。例えば、前後の操作に基づいて判定しても良い。具体的には、入力された操作を取り消し、近傍の操作対象が操作された場合は、当該操作を押し間違いと判定すればよい。また、設定モードを設け、当該設定モードで操作対象を指定し、実際に入力された操作との相対関係を用いて押し間違いかを判定してもよい。この場合は、携帯電話端末1で指定して操作対象と実際に操作が入力された操作対象との関係で押し間違いか否かを判定することができる。
また、携帯電話端末1は、起動させタッチパネル2の表示部2Bに操作対象を表示させるアプリケーションの種類に応じて、操作対象と検出領域とのズレ量を変更するようにしてもよい。つまり、同一の位置に表示される同じ大きさの操作対象であっても、当該操作対象を表示させるアプリケーションの種類に基づいて、操作対象に対する検出領域のズレ量を異なる量としてもよい。このように、アプリケーションによって、ズレ量を変化させることで使用するアプリケーション毎に適切な補正を行うことができる。なお、携帯電話端末1は、起動するアプリケーション毎に、操作対象と検出領域とのズレ量の関係を記憶部9に記憶させ、記憶部9に記憶させた関係に基づいてズレ量を調整すればよい。また、操作対象と検出領域とのズレ量の関係は、操作対象の種類に応じて設定してもよい。例えば、アプリケーションがブラウザプログラム9Aを処理することで実現するブラウザ機能である場合、操作対象がアイコン、リンク、ツールバーのそれぞれに検出領域のズレ量を設定すればよい。なお、携帯電話端末1は、ズレ量に加え、操作領域に対する検出領域の大きさの関係を記憶してもよい。例えば、ツールバーは、操作領域に対して検出領域を大きくする設定としてもよい。
また、携帯電話端末1は、設定した操作対象と検出領域とのズレ量を利用者がさらに手動で補正できるようにしてもよい。この場合、利用者は、初期設定や処理条件として補正処理を行ってもよいし、画像を表示させている状態で補正処理を設定するようにしてもよい。
1 携帯電話端末
2 タッチパネル
2A タッチセンサ
2B 表示部
3 入力部
5 電源部
6 通信部
7 レシーバ
8 マイク
9 記憶部
9A メールプログラム
9B ブラウザプログラム
9C カメラプログラム
9D 顔認識プログラム
9E 操作検出位置調整プログラム
9F 処理条件テーブル
10 主制御部
11 RAM
12 筐体
16 カメラ
18 加速度センサ
20、22 ボタン
24 入力デバイス

Claims (10)

  1. 筐体と、
    前記筐体に配置された表示部と、前記表示部に重畳して配置されたタッチセンサとを備えるタッチパネルと、
    利用者と前記タッチパネルとの相対位置を検出する相対位置検出手段と、
    前記相対位置検出手段で検出した前記利用者と前記タッチパネルとの相対位置に基づいて、前記タッチパネルの前記表示部に表示させる画像と前記画像に対応した前記タッチセンサの検出領域との対応関係を調整する制御部と、を有することを特徴とする携帯電子機器。
  2. 前記相対位置検出手段は、前記筐体に配置され、前記タッチパネルに向かい合う領域の画像を撮影するカメラを有し、
    前記カメラで撮影した画像に含まれる利用者の顔の位置を抽出し、当該顔の位置に基づいて前記利用者と前記タッチパネルとの相対位置を検出することを特徴とする請求項1に記載の携帯電子機器。
  3. 前記相対位置検出手段は、前記利用者の顔として利用者の目の位置を抽出し、当該目の位置に基づいて前記利用者と前記タッチパネルとの相対位置を検出することを特徴とする請求項2に記載の携帯電子機器。
  4. 前記相対位置検出手段は、前記筐体の向きを検出する姿勢検出センサを有し、
    前記姿勢検出センサで検出した前記筐体の向きと予め設定された関係とに基づいて前記利用者と前記タッチパネルとの相対位置を検出することを特徴とする請求項1に記載の携帯電子機器。
  5. 前記制御部は、前記タッチパネルの前記表示部に画像を表示させていない状態から画像を表示させる状態となった場合、前記タッチパネルの前記表示部に表示させる画像と前記画像に対応した前記タッチセンサの検出領域との対応関係を調整することを特徴とする請求項1から4のいずれか一項に記載の携帯電子機器。
  6. 前記筐体の加速度を検出する加速度センサをさらに有し、
    前記制御部は、前記加速度センサで設定した値以上の加速度を検出した場合、前記タッチパネルの前記表示部に表示させる画像と前記画像に対応した前記タッチセンサの検出領域との対応関係を調整することを特徴とする請求項1から5のいずれか一項に記載の携帯電子機器。
  7. 前記制御部は、前記利用者が前記タッチパネルの正面となる位置を基準として、前記タッチパネルの正面に対して前記利用者が傾いている向きと同じ方向に、前記タッチパネルの前記表示部に表示させる画像に対して前記画像に対応した前記タッチセンサの検出領域をずらすことを特徴とする請求項1から6のいずれか一項に記載の携帯電子機器。
  8. 前記制御部は、前記利用者が入力した操作の押し間違いの頻度を検出し、当該押し間違いの頻度に基づいて操作対象と検出領域とのズレ量をさらに調整することを特徴とする請求項1から7のいずれか一項に記載の携帯電子機器。
  9. 前記制御部は、起動させ前記表示部に操作対象を表示させるアプリケーションの種類に応じて、操作対象と検出領域とのズレ量を変更することを特徴とする請求項1から8のいずれか一項に記載の携帯電子機器。
  10. 前記制御部は、前記利用者が入力した補正操作に基づいて前記対応関係をさらに調整することを特徴とする請求項1から9のいずれか一項に記載の携帯電子機器。
JP2011073529A 2011-03-29 2011-03-29 携帯電子機器 Expired - Fee Related JP5865597B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011073529A JP5865597B2 (ja) 2011-03-29 2011-03-29 携帯電子機器

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011073529A JP5865597B2 (ja) 2011-03-29 2011-03-29 携帯電子機器

Publications (2)

Publication Number Publication Date
JP2012208714A true JP2012208714A (ja) 2012-10-25
JP5865597B2 JP5865597B2 (ja) 2016-02-17

Family

ID=47188384

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011073529A Expired - Fee Related JP5865597B2 (ja) 2011-03-29 2011-03-29 携帯電子機器

Country Status (1)

Country Link
JP (1) JP5865597B2 (ja)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5606635B1 (ja) * 2013-05-09 2014-10-15 株式会社東芝 電子機器、補正方法、及びプログラム
JP2015108981A (ja) * 2013-12-05 2015-06-11 三菱電機株式会社 表示制御装置、表示制御方法及び画像設計方法
JP2018185873A (ja) * 2014-08-07 2018-11-22 グーグル エルエルシー レーダベースのジェスチャ感知およびデータ伝送
DE102018131805A1 (de) 2017-12-11 2019-06-13 Omron Corporation Vorrichtung zum erfassen einer gesichtsposition
US10409385B2 (en) 2014-08-22 2019-09-10 Google Llc Occluded gesture recognition
US10664059B2 (en) 2014-10-02 2020-05-26 Google Llc Non-line-of-sight radar-based gesture recognition
JP2020156797A (ja) * 2019-03-27 2020-10-01 株式会社セガ プログラム及び情報処理装置
US10823841B1 (en) 2015-10-06 2020-11-03 Google Llc Radar imaging on a mobile computing device
US10936085B2 (en) 2015-05-27 2021-03-02 Google Llc Gesture detection and interactions
US10948996B2 (en) 2014-06-03 2021-03-16 Google Llc Radar-based gesture-recognition at a surface of an object
US11140787B2 (en) 2016-05-03 2021-10-05 Google Llc Connecting an electronic component to an interactive textile
US11169988B2 (en) 2014-08-22 2021-11-09 Google Llc Radar recognition-aided search
US11219412B2 (en) 2015-03-23 2022-01-11 Google Llc In-ear health monitoring
JP7087055B1 (ja) 2020-12-18 2022-06-20 ヤフー株式会社 情報処理装置、情報処理方法、及び情報処理プログラム
US11709552B2 (en) 2015-04-30 2023-07-25 Google Llc RF-based micro-motion tracking for gesture tracking and recognition

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04372013A (ja) * 1991-06-21 1992-12-25 Hitachi Ltd 自動処理装置
JPH05289816A (ja) * 1992-04-06 1993-11-05 Fujitsu Ltd 表示操作パネル補正装置
JPH0944310A (ja) * 1995-07-25 1997-02-14 Oki Electric Ind Co Ltd タッチパネル補正装置
JPH11296304A (ja) * 1998-04-10 1999-10-29 Ricoh Co Ltd 画面表示入力装置及び視差補正方法
JP2004280590A (ja) * 2003-03-17 2004-10-07 Sharp Corp タッチパネル入力装置及びタッチパネル入力制御方法
JP2009009261A (ja) * 2007-06-27 2009-01-15 Pioneer Electronic Corp タッチパネル表示装置およびタッチパネル制御方法
WO2010113397A1 (ja) * 2009-03-31 2010-10-07 三菱電機株式会社 表示入力装置
JP2012037963A (ja) * 2010-08-04 2012-02-23 Nec Casio Mobile Communications Ltd 携帯端末装置、検出領域調整方法およびプログラム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04372013A (ja) * 1991-06-21 1992-12-25 Hitachi Ltd 自動処理装置
JPH05289816A (ja) * 1992-04-06 1993-11-05 Fujitsu Ltd 表示操作パネル補正装置
JPH0944310A (ja) * 1995-07-25 1997-02-14 Oki Electric Ind Co Ltd タッチパネル補正装置
JPH11296304A (ja) * 1998-04-10 1999-10-29 Ricoh Co Ltd 画面表示入力装置及び視差補正方法
JP2004280590A (ja) * 2003-03-17 2004-10-07 Sharp Corp タッチパネル入力装置及びタッチパネル入力制御方法
JP2009009261A (ja) * 2007-06-27 2009-01-15 Pioneer Electronic Corp タッチパネル表示装置およびタッチパネル制御方法
WO2010113397A1 (ja) * 2009-03-31 2010-10-07 三菱電機株式会社 表示入力装置
JP2012037963A (ja) * 2010-08-04 2012-02-23 Nec Casio Mobile Communications Ltd 携帯端末装置、検出領域調整方法およびプログラム

Cited By (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5606635B1 (ja) * 2013-05-09 2014-10-15 株式会社東芝 電子機器、補正方法、及びプログラム
WO2014181435A1 (ja) * 2013-05-09 2014-11-13 株式会社 東芝 電子機器、補正方法、及びプログラム
JP2015108981A (ja) * 2013-12-05 2015-06-11 三菱電機株式会社 表示制御装置、表示制御方法及び画像設計方法
US10948996B2 (en) 2014-06-03 2021-03-16 Google Llc Radar-based gesture-recognition at a surface of an object
JP2018185873A (ja) * 2014-08-07 2018-11-22 グーグル エルエルシー レーダベースのジェスチャ感知およびデータ伝送
US10642367B2 (en) 2014-08-07 2020-05-05 Google Llc Radar-based gesture sensing and data transmission
US10409385B2 (en) 2014-08-22 2019-09-10 Google Llc Occluded gesture recognition
US11169988B2 (en) 2014-08-22 2021-11-09 Google Llc Radar recognition-aided search
US11816101B2 (en) 2014-08-22 2023-11-14 Google Llc Radar recognition-aided search
US11221682B2 (en) 2014-08-22 2022-01-11 Google Llc Occluded gesture recognition
US10936081B2 (en) 2014-08-22 2021-03-02 Google Llc Occluded gesture recognition
US10664059B2 (en) 2014-10-02 2020-05-26 Google Llc Non-line-of-sight radar-based gesture recognition
US11163371B2 (en) 2014-10-02 2021-11-02 Google Llc Non-line-of-sight radar-based gesture recognition
US11219412B2 (en) 2015-03-23 2022-01-11 Google Llc In-ear health monitoring
US11709552B2 (en) 2015-04-30 2023-07-25 Google Llc RF-based micro-motion tracking for gesture tracking and recognition
US10936085B2 (en) 2015-05-27 2021-03-02 Google Llc Gesture detection and interactions
US11481040B2 (en) 2015-10-06 2022-10-25 Google Llc User-customizable machine-learning in radar-based gesture detection
US11385721B2 (en) 2015-10-06 2022-07-12 Google Llc Application-based signal processing parameters in radar-based detection
US11698439B2 (en) 2015-10-06 2023-07-11 Google Llc Gesture recognition using multiple antenna
US10823841B1 (en) 2015-10-06 2020-11-03 Google Llc Radar imaging on a mobile computing device
US11256335B2 (en) 2015-10-06 2022-02-22 Google Llc Fine-motion virtual-reality or augmented-reality control using radar
US11698438B2 (en) 2015-10-06 2023-07-11 Google Llc Gesture recognition using multiple antenna
US11693092B2 (en) 2015-10-06 2023-07-04 Google Llc Gesture recognition using multiple antenna
US11175743B2 (en) 2015-10-06 2021-11-16 Google Llc Gesture recognition using multiple antenna
US11656336B2 (en) 2015-10-06 2023-05-23 Google Llc Advanced gaming and virtual reality control using radar
US11592909B2 (en) 2015-10-06 2023-02-28 Google Llc Fine-motion virtual-reality or augmented-reality control using radar
US11140787B2 (en) 2016-05-03 2021-10-05 Google Llc Connecting an electronic component to an interactive textile
US10776944B2 (en) 2017-12-11 2020-09-15 Omron Corporation Face position detecting device
DE102018131805A1 (de) 2017-12-11 2019-06-13 Omron Corporation Vorrichtung zum erfassen einer gesichtsposition
JP2020156797A (ja) * 2019-03-27 2020-10-01 株式会社セガ プログラム及び情報処理装置
JP2022097291A (ja) * 2020-12-18 2022-06-30 ヤフー株式会社 情報処理装置、情報処理方法、及び情報処理プログラム
JP7087055B1 (ja) 2020-12-18 2022-06-20 ヤフー株式会社 情報処理装置、情報処理方法、及び情報処理プログラム

Also Published As

Publication number Publication date
JP5865597B2 (ja) 2016-02-17

Similar Documents

Publication Publication Date Title
JP5865597B2 (ja) 携帯電子機器
KR102109649B1 (ko) 전자 펜 좌표 보정 방법 및 이를 지원하는 휴대형 전자장치
JP6046064B2 (ja) 携帯機器、タッチ位置補正方法およびプログラム
EP2626777B1 (en) Touch panel, mobile terminal, computer readable storage medium and method for detecting a contact
US9007321B2 (en) Method and apparatus for enlarging a display area
US20160299604A1 (en) Method and apparatus for controlling a mobile device based on touch operations
US11003753B2 (en) Method for recognizing fingerprint, and electronic device and storage medium therefor
US20120297339A1 (en) Electronic device, control method, and storage medium storing control program
US11320936B2 (en) Input device, information processing device and information processing method for determining a pressing amount
KR20130034765A (ko) 휴대 단말기의 펜 입력 방법 및 장치
WO2013046596A1 (ja) 携帯型情報処理端末
US20130321328A1 (en) Method and apparatus for correcting pen input in terminal
JP2012203736A (ja) 電子機器、制御方法および制御プログラム
US9563346B2 (en) Method for scrolling a displayed image in a touch system
JP2012194810A (ja) 携帯電子機器、接触操作制御方法および接触操作制御プログラム
JP2012174248A (ja) 携帯電子機器、接触操作制御方法および接触操作制御プログラム
US20120320500A1 (en) Portable electronic device and method for using the same
JP6201282B2 (ja) 携帯電子機器、その制御方法及びプログラム
JP2014123288A (ja) 電子機器、制御方法およびプログラム
JP2014067203A (ja) 電子機器、注視点検出プログラムおよび注視点検出方法
WO2017211108A1 (zh) 一种显示方法及装置
US20160103506A1 (en) Input device, method for controlling input device, and non-transitory computer-readable recording medium
JP6197012B2 (ja) 情報処理装置および情報処理方法
JP7069887B2 (ja) 携帯端末装置および携帯端末装置の表示制御方法
JP7035662B2 (ja) 携帯端末装置および携帯端末装置の表示制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140924

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140924

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150428

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150626

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151228

R150 Certificate of patent or registration of utility model

Ref document number: 5865597

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees