JP5999374B2 - 携帯端末装置、携帯端末制御方法及びプログラム - Google Patents

携帯端末装置、携帯端末制御方法及びプログラム Download PDF

Info

Publication number
JP5999374B2
JP5999374B2 JP2013532408A JP2013532408A JP5999374B2 JP 5999374 B2 JP5999374 B2 JP 5999374B2 JP 2013532408 A JP2013532408 A JP 2013532408A JP 2013532408 A JP2013532408 A JP 2013532408A JP 5999374 B2 JP5999374 B2 JP 5999374B2
Authority
JP
Japan
Prior art keywords
gripping force
display position
display
target object
operation target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013532408A
Other languages
English (en)
Other versions
JPWO2013035229A1 (ja
Inventor
甲斐田 壮
壮 甲斐田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2013035229A1 publication Critical patent/JPWO2013035229A1/ja
Application granted granted Critical
Publication of JP5999374B2 publication Critical patent/JP5999374B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/039Accessories therefor, e.g. mouse pads
    • G06F3/0393Accessories for touch pads or touch screens, e.g. mechanical guides added to touch screens for drawing straight lines, hard keys overlaying touch screens or touch pads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/0227Cooperation and interconnection of the input arrangement with other functional units of a computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/169Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/22Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of characters or indicia using display control signals derived from coded signals representing the characters or indicia, e.g. with a character-code memory
    • G09G5/32Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of characters or indicia using display control signals derived from coded signals representing the characters or indicia, e.g. with a character-code memory with means for controlling the display position
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/23Construction or mounting of dials or of equivalent devices; Means for facilitating the use thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、携帯端末装置、携帯端末制御方法及びプログラムに関し、詳細には、手のひらに載る程度の大きさの平板(タブレット)状の筐体を有する携帯端末装置、携帯端末制御方法及びプログラムに関する。
タブレット型携帯端末装置の多くは、主たる入力インターフェースをタッチパネルとしているため、片手で筐体を持ったまま、その手の親指で操作対象オブジェクト、たとえば、アイコン等のグラフィックボタンやリンク先などの選択操作(タッチ操作)を行うことができることから、混雑した電車内のように両手が使えない場所での操作性に優れているという利点が得られる反面、表示部の画面サイズが大きい場合には、操作対象オブジェクトに指先が届かないことがあり、持ち手の位置(把持位置)を変えたり両手操作を行ったりするなど操作性悪化の問題を生じていた。
図15は、表示部の画面サイズが大きい場合の不都合を説明する図である。この図において、携帯端末装置1は、縦長且つタブレット状の筐体2の前面に、同じく縦長のタッチパネル付き表示部(以下、単に表示部3という)を備えている。
このような携帯端末装置1を片手で操作する場合、ユーザは自分の利き手(ここでは右手4)で筐体2の任意部分を握り、その右手4の親指5を動かして表示部3にタッチすることになるが、親指5の届く範囲(円弧6の内側)が限られているため、この範囲の外側に片手操作不能な領域(図中のハッチング部分。以下、操作不能領域7)を生じてしまう。
今、表示部3の画面サイズを、たとえば、約4インチ程度のフルワイドVGA(480×854ドット)(このような画面サイズは今日の典型例であり、無理な例示ではない)とすると、標準的な大人の親指5をもってしても、画面の全体に指先が届かない。このため、ある程度の大きさの操作不能領域7の発生が避けられない。操作不能領域7の場所は筐体2の把持位置に依存する。たとえば、図示の例は、筐体2の下部分を把持する場合であるが、この場合、操作不能領域7は主として表示部3の上部に生じる。このような持ち方(筐体2の下部分を把持する)は一般的である。多くの場合、表示部3の下側に任意数の物理キー8が設けられているからであり、この物理キー8を同じ親指5で頻繁に操作しなければならないからである。
操作不能領域7を解消するためには、把持位置を上にずらす、または、自由な方の手を併用するという対策を講じるが、前者は一瞬とはいえ操作のタイムラグを生じるし、後者は両手操作になってしまう(片手操作の利点を損なう)という不都合がある。
そこで、片手操作を支援する入力補助技術が求められている。その関連技術としては、たとえば、筐体表面に設けられた二つの圧力センサの検出結果を相互に比較し、その比較結果に基づき、スクロールの方向や速度などを制御するもの(特許文献1)や、筐体側面又は背面に設けられた複数のセンサで、当該筐体を握る手の位置(把持位置)を検出し、その把持位置に合わせて表示部上のソフトウェアキーの表示位置を制御するもの(特許文献2)。あるいは、筐体側面に設けられたダイアル式の部品を、当該筐体を握る手の指先で操作してスクロールを行ったり、筐体側面に設けられたボタン式の部品を、当該筐体を握る手の指先で押してスクロールを行ったりするもの(特許文献3)などがある。
特開2009−200665号公報 特開2010−154090号公報 特開平11−045143号公報
しかしながら、特許文献1、3の技術は、単なるスクロールの制御技術であって、非スクロール画面、つまり、画面からのはみ出しがない表示制御には適用できず、また、特許文献2の技術は、筐体の把持位置に合わせてソフトウェアキーの表示位置を制御するものに過ぎず、いずれの技術も、筐体を把持している手の指先が操作対象オブジェクトに届かない場合に、操作対象オブジェクトの表示位置を制御して指先が届くようにするという思想を開示するものではない。
そこで、本発明の目的は、筐体を把持している手の指先が届かない場合に操作対象オブジェクトの表示位置を制御して指先が届くようにした携帯端末装置、携帯端末制御方法及びプログラムを提供することにある。
本発明の携帯端末装置は、少なくとも1つの操作対象オブジェクトを表示部に表示させるオブジェクト表示手段と、筐体に加えられる把持力を検出する把持力検出手段と、前記把持力検出手段によって検出された把持力に応じて前記表示部上における前記操作対象オブジェクトの表示位置を制御する表示位置制御手段とを備え、前記表示位置制御手段は、前記把持力の大きさに応じて前記オブジェクトの表示位置の移動量または移動速度もしくはその双方を制御することを特徴とする。
本発明の携帯端末制御方法は、少なくとも1つの操作対象オブジェクトを表示部に表示させるオブジェクト表示工程と、筐体に加えられる把持力を検出する把持力検出工程と、前記把持力検出工程によって検出された把持力に応じて前記表示部上における前記操作対象オブジェクトの表示位置を制御する表示位置制御工程とを含み、前記表示位置制御工程は、前記把持力の大きさに応じて前記オブジェクトの表示位置の移動量または移動速度もしくはその双方を制御することを特徴とする。
本発明のプログラムは、携帯端末装置のコンピュータに、少なくとも1つの操作対象オブジェクトを表示部に表示させるオブジェクト表示手段と、筐体に加えられる把持力を検出する把持力検出手段と、前記把持力検出手段によって検出された把持力に応じて前記表示部上における前記操作対象オブジェクトの表示位置を制御する表示位置制御手段としての機能を与え、前記表示位置制御手段は、前記把持力の大きさに応じて前記オブジェクトの表示位置の移動量または移動速度もしくはその双方を制御することを特徴とする。
本発明によれば、筐体を把持している手の指先が届かない場合に操作対象オブジェクトの表示位置を制御して指先が届くようにした携帯端末装置、携帯端末制御方法及びプログラムを提供することができる。
実施形態に係る携帯端末装置の外観図である。 携帯端末装置の内部ブロック図である。 アイコンの表示例を示す図である。 携帯端末装置10の動作フローを示す図である。 閾値Faの説明図である。 通常の把持状態を示す図である。 操作範囲外に位置するオブジェクトを操作する際の把持状態を示す図及び画面の表示位置が所定の移動先に到達したときの様子を示す図である。 画面復帰の様子を示す図である。 画面表示位置の移動方法の一例を示す概念図である。 画面表示位置の移動特性を示す図である。 移動先を可変とする場合の概念図である。 圧力センサを1個にした構成図である。 機械的な圧力検出手段の一例構成図である。 付記1の構成図である。 表示部の画面サイズが大きい場合の不都合を説明する図である。
以下、本発明の実施形態を、図面を参照しながら説明する。
図1は、実施形態に係る携帯端末装置の外観図である。この図において、携帯端末装置10は、たとえば、スマートフォンなどの携帯電話機であり、手のひらに載る程度の大きさのタブレット状の筐体11の主面(操作対象の面)にタッチパネル12付の表示部13を配置するとともに、その表示部13の下端側の額縁14内に1ないし複数(ここでは一例として3つ)の物理キー15〜17を配置し、且つ、筐体11の両側面(左側面18と右側面19)にそれぞれ側面全体を覆う適切な大きさの板状の圧力センサ20、21を配置して構成されている。圧力センサ20、21は“むき出しの状態”であってもよいが、美観の点でカバー(またはカバーのようなもの)を被せた状態とすることが望ましい。カバー(またはカバーのようなもの)は、筐体11に加えられる把持力を圧力センサ20、21に伝えることができるものであればよい。ここで、筐体11の左側面18に配置された圧力センサ20を「左圧力センサ20」ということにし、また、筐体11の右側面に配置された圧力センサ21を「右圧力センサ21」ということにする。
物理キー15〜17の用途は特に限定しない。たとえば、一般的な例に倣い、左側の物理キー15をメニュー用、中央の物理キー16をホーム画面復帰用、右側の物理キー17を1つ前の画面復帰用としてもよい。また、図面では略しているが、筐体11の任意面に電源スイッチを設け、さらに必要であれば、任意面の任意位置にSDカード等の記憶メディアスロットや充電及び外部インターフェース兼用のコネクタなどを設けていてもよい。
図2は、携帯端末装置の内部ブロック図である。この図において、携帯端末装置10は、少なくとも、筐体11の内部に実装されたセンサI/F(インターフェース)部22と、静電容量式等のタッチパネル12と、液晶ディスプレイ等の表示部13と、主制御部23とを備え、左圧力センサ20からの信号と右圧力センサ21からの信号とをセンサI/F部22を介して主制御部23に入力しているとともに、主制御部23で適宜に生成される表示情報を表示部12に入力し、さらに、タッチパネル12で検出されるタッチ情報(表示部12の画面上のタッチ座標等)を主制御部23に入力している。なお、この携帯端末装置10を携帯電話機とする場合、上記の各部に加えて携帯電話用の構成要素(電話用無線通信部など)を備えることはもちろんである。
主制御部23は、プログラム制御方式の制御要素であり、不揮発性且つ書き換え可能なメモリ(たとえば、フラッシュメモリ、ハードディスクまたはシリコンディスクなど;以下、ROM24)にあらかじめ格納されている制御プログラムを高速半導体メモリ(以下、RAM25)にロードして、コンピュータ(以下、CPU26)で実行することにより、この携帯端末装置10に必要な様々な機能、たとえば、アイコンの表示機能や、アイコンへのユーザ操作(タッチ操作)に対応したイベント発生機能、そのイベントに応答した所定のコマンドの実行機能などを、CPU10などのハードウェアリソースと制御プログラムなどのソフトウェアリソースとの有機的結合によって実現する。
アイコンとは、コンピュータ応用機器の操作画面において、処理の内容や対象を小さな絵や記号または図形などの部品で模式化して表現した「操作対象オブジェクト」のことをいう。ユーザはアイコンを直接タッチして操作できるため、直感的に優れたユーザインターフェイスが得られる。なお、操作対象オブジェクトはアイコンに限らない。タッチ(選択)することによって、特定のイベントを発生するものであればよく、たとえば、各種のドキュメントやインターネットコンテンツなどへのリンク情報(文字列または画像などに埋め込まれたもの)、あるいは、メニュー情報などであってもよい。以下、アイコンを例にして説明するが、これは説明を単純化するためであり、アイコンの意味には「操作対象オブジェクト」の全てが含まれていることに留意されたい。
アイコンの内容は特に限定しない。たとえば、携帯端末装置10をインターネット端末兼用の携帯電話端末とすれば、電話用のアイコン、メール用のアイコン、インターネットプラウザ用のアイコン、あるいは、その他の様々なツール用アイコンなどとしてもよい。
一般的に、こうしたアイコンは、携帯端末装置10の表示部13に複数配置される。とりわけ、スマートフォンと呼ばれるインターネット兼用端末は、インターネット上のサイトから任意のアプリケーションソフトを端末にダウンロードしてインストールできるようになっており、その際、アプリケーションごとのアイコンが画面に配置されるので、ダウンロードしたアプリケーションソフトの数に対応した大量のアイコンが画面上に配置されることになる。
図3は、アイコンの表示例を示す図である。この図において、携帯端末装置10の表示部13には、規則的(ここでは3列×5段のマトリクス状)に配置された多数のアイコンが示されている。以下、これらのアイコンに“A”〜“O”のアルファベットを付し、各々をAアイコン、Bアイコン・・・・Oアイコンと呼ぶことにする。なお、“A”〜“O”のアルファベットに特段の意味はない。単なる識別記号である。
Aアイコン、Bアイコン・・・・Oアイコンのいずれかにタッチすると、そのアイコンに割り当てられたアプリケーションが起動する。たとえば、Aアイコンにタッチすると電話アプリケーションが起動し、Bアイコンにタッチするとメールアプリケーションが起動し、Cアイコンにタッチするとインターネットプラウザアプリケーションが起動する。また、Gアイコンにタッチすると電話帳アプリケーションが起動し・・・・Mアイコンにタッチするとゲームアプリケーションが起動する。その他のアイコンも同様である。
今、ユーザが右手27で筐体11の下部分を把持し、その状態で、右手27の親指28を用いて任意のアイコンにタッチすることを考える。この場合、親指28が届く範囲は、親指28の付け根を中心とし、その中心から親指28の先までを半径とする円弧29の内側である。図示の例において、この範囲(円弧29の内側)には3段目以下のアイコン(G〜Oアイコン)しか含まれておらず、それ以外のアイコン(A〜Fアイコン)は範囲外(図15の操作不能領域7参照)にある。したがって、把持位置を変更するか、または、両手操作に変えない限り、範囲外(図15の操作不能領域7参照)に位置するA〜Fアイコンを選択することができない。
両手操作は片手操作の利便性を失う。また、把持位置の変更、つまり、筐体11の下部分から中央部分または上部分への変更は操作性の悪化を招く。筐体11の下部に頻繁に操作される物理キー15〜17が設けられているからであり、把持位置を上にずらした後、物理キー15〜17を操作するために、すぐに元の把持位置に戻す必要があるからである。加えて、把持位置の変更は、携帯端末装置10の落下の危険性もある。把持位置を上にずらしたり元に戻したりする際に、一瞬、把持力が弱くなってしまい、筐体11が手のひらから滑り落ちる恐れがあるからである。
このように、操作範囲外にある操作対象オブジェクト(図示の例ではA〜Fアイコン)を選択できるようにするための対策(両手操作や把持位置の変更)は、上記の欠点があり、したがって、解決すべき課題がある。
実施形態は、この課題の解決を意図するものであり、その技術思想の要点は、筐体11の把持力(握る力、掴む力または保持する力)に応じて表示部13の画面の表示状態を変更(正確には操作対象オブジェクトの表示位置を変更)し、操作範囲外にある操作対象オブジェクトを操作範囲内に移動できるようにしたことにある。これにより、把持位置を変更することなく、また、両手操作を行うことなく、操作範囲外にある操作対象オブジェクト(図示の例ではA〜Fアイコン)を選択できるようになる。
以下、実施形態の動作について、詳しく説明する。
図4は、携帯端末装置10の動作フローを示す図である。この動作フローは、制御主体、つまり、主制御部23のコンピュータ(CPU26)によって逐次に実行される制御プログラムの処理内容を概略化して示すものであり、以下、各々の処理要素に“S”+“一連番号”のステップ番号を付して説明する。
この動作フローを開始すると、CPU26は、まず、表示部13の表示をオンにする(ステップS1)。なお、“表示をオンにする”とは、主制御部23で生成された所定の表示情報を表示部13に入力するとともに、表示部13のバックライト(面光源)を点灯することをいう。ちなみに、バックライトは自ら発光しない透過型の表示部13(たとえば、液晶ディスプレイ)に必須のものであるので、表示部13に自発光型のもの(有機パネルやELパネルなど)を使用した場合は不要である。この場合は、主制御部23で生成された所定の表示情報を表示部13に入力するだけでよい。
次に、CPU26は、左圧力センサ20の測定値(以下、FL)と右圧力センサ21の測定値(以下、FR)とを取り込み(ステップS2)、それらの測定値FL、FRと所定の閾値Faとを比較して、「FL>Fa且つFR>Fa」であるか否かを判定する(ステップS3)。
図5は、閾値Faの説明図である。この図において、横軸は時間であり、縦軸は圧力である。圧力は、左圧力センサ20と右圧力センサ21の測定値(FL、FR)に対応し、縦軸の上に行くほど圧力が大きくなる。
この図では、時間に沿ったFL、FRの変化例として、以下のものが示されている。
(1)時刻t1まで:圧力略0。
(2)時刻t1〜t2:圧力f1(f1>0)。
(3)時刻t2〜t3:圧力f3(f3>f1)。
(4)時刻t3〜t4:圧力f2(f3>f2>f1)。
(5)時刻t4〜t5:圧力f1。
(6)時刻t5以降:圧力略0。
(1)と(6)は、筐体11に加えられる把持力(FL、FR)が略0であるので、携帯端末装置10が非把持状態にあることを示している。一方、それ以外の(2)〜(5)は、筐体11に加えられる把持力(FL、FR)が0を超えた有意値(圧力f1〜f3)であるので、すくなくとも携帯端末装置10が把持状態にあることを示している。
ここで、圧力f1と圧力f3の2つに着目する。図示のとおり、圧力f1と圧力f3はともに略0を超え、且つ、圧力f1よりも圧力f3の方が大きい。したがって、圧力f1を検出した(2)と(5)では、筐体11を圧力f1に相当する軽目の力で把持している状態にあり、また、圧力f3を検出した(3)では、筐体11を圧力f3に相当する強目の力で把持している状態にある。
今、圧力f1を、一般的なユーザによる筐体11の把持力に相当する値であると考える。つまり、多くのユーザが、単に筐体11を把持する場合に、その筐体11の両側面に加えられる平均的な圧力相当であると考える。以下、この圧力f1のことを便宜的に「常用把持力」ということにする。すなわち、常用把持力=f1である。これに対して、圧力f3は、常用圧力を超える大きさであって、しかも、意図的に手のひらに力を加えたときの圧力相当の値を持つ。以下、この意図的に加えられる圧力のことを便宜的に「意図的把持力」ということにする。すなわち、意図的把持力=f3である。
閾値Faは、これらの「常用把持力」と「意図的把持力」とを区別できる適切な値に設定する。たとえば、図示の例では、f1とf3のほぼ中間の値に閾値Faを設定している。
なお、(4)の圧力f2は、圧力f3よりも小さく、且つ、圧力f1よりも大きい値であり、しかも、閾値Faを上回る大きさを有している。この圧力f2も「意図的把持力」の範囲に含まれる。つまり、圧力f2は「意図的把持力」を維持した状態で画面上の操作対象オブジェクトにタッチしたときの値であり、一般的に、このようなタッチ操作を行った場合、わずかに把持力が減少する傾向が現れるからであり、圧力f3と圧力f2の差分は、この把持力減少を示している。
したがって、図示のFL、FRの特性は、(1)で非把持状態、(2)で常用把持力f1の把持状態、(3)で意図的把持力f3の把持状態、(4)で意図的把持力f2の把持状態且つタッチ操作、(5)で常用把持力f1の把持状態、(6)で非把持状態となる時間の経過を示しており、適切な閾値Faを設定することにより、常用把持力f1の把持状態と、意図的把持力f2、f3の把持状態とを区別できることを明示している。
再び、図4に戻り、ステップS3の判定結果が“NO”の場合、すなわち、「FL>Fa且つFR>Fa」でない場合は、図5の(3)、(4)以外、詳細には、(1)の非把持状態、(2)や(5)の常用把持力f1の把持状態、または、(6)の非把持状態のいずれかであると判断し、再びステップS2に戻って左圧力センサ20と右圧力センサ21の測定値(FL、FR)の取り込みを実行する。
一方、ステップS3の判定結果が“YES”の場合、すなわち、「FL>Fa且つFR>Fa」である場合は、図5の(3)、(4)、詳細には、(3)の意図的把持力f3の把持状態、または、(4)の意図的把持力f2の把持状態且つタッチ操作のいずれかであると判断し、表示部13の画面表示位置の移動を開始する(ステップS4)。ここで、“画面表示位置の移動”とは、操作範囲外にある操作対象オブジェクトを親指28の操作範囲内に移動することをいう。たとえば、図3の例で説明すると、図示のアイコンA〜Fは親指28の操作範囲外にある操作対象オブジェクトであるが、これらのアイコンA〜Fを操作範囲内、つまり、円弧29の内側に移動することをいう。画面表示位置の移動の具体的方法については後述する。
ステップS4で表示部13の画面表示位置の移動を開始すると、次に、所定の移動先に到達したか否かを判定する(ステップS5)。“所定の移動先に到達”とは、操作対象オブジェクトが操作範囲内に位置した(到達した)ことをいう。これについても後で詳しく説明する。
ステップS5の判定結果が“YES”の場合、すなわち、表示部13の画面表示位置が所定の移動先に到達した場合は、画面表示位置の移動を停止(ステップS6)し、タッチパネル12の入力(タッチ操作)ありか否かを判定する(ステップS7)一方、ステップS5の判定結果が“NO”の場合、すなわち、表示部13の画面表示位置が所定の移動先に到達していない場合は、そのまま、タッチパネル12の入力(タッチ操作)ありか否かを判定する(ステップS7)。
ステップS7の判定結果が“YES”の場合、すなわち、タッチパネル12の入力(タッチ操作)ありが判定された場合は、再び左圧力センサ20と右圧力センサ21の測定値(FL、FR)を取り込み(ステップS9)、それらの測定値FL、FRと所定の閾値Faとを比較して、「FL<Fa且つFR<Fa」であるか否かを判定する(ステップS10)。
そして、ステップS10の判定結果が“NO”の場合、すなわち、「FL<Fa且つFR<Fa」でない場合は、図5の(3)、(4)、詳細には、(3)の意図的把持力f3の把持状態、または、(4)の意図的把持力f2の把持状態且つタッチ操作のいずれかの状態が継続されていると判断し、再びステップS5以降を実行する。
一方、ステップS10の判定結果が“YES”の場合、すなわち、「FL<Fa且つFR<Fa」である場合は、図5の(3)、(4)以外、詳細には、(1)の非把持状態、(2)や(5)の常用把持力f1の把持状態、または、(6)の非把持状態のいずれかであると判断し、画面表示位置の復帰(ステップS11)を行った後、表示部13の表示をオフにするか否かを判定(ステップS12)する。
そして、表示オフであれば、主制御部23から表示部13への表示情報出力を停止(及び表示部13が透過型であればバックライトを消灯)して、フローを終了し、表示オフでなければ、再びステップS2以降を繰り返す。
ステップS7の判定結果が“NO”の場合、すなわち、タッチパネル12の入力(タッチ操作)ありが判定されなかった場合は、意図的把持力による把持状態になってからタッチ操作が行われるであろう平均的な待ち時間に相当する所定時間の経過を判定し(ステップS8)、所定時間が経過していなければ、再びステップS7の判定を繰り返し、所定時間が経過していれば、タッチ操作を目的としない間違った強めの把持状態であると判断し、画面表示位置の復帰処理(ステップS11)を実行する。
以上の動作フローによって、操作範囲外にある操作対象オブジェクトを操作範囲内に移動し、これにより、把持位置を変更することなく、また、両手操作を行うことなく、操作範囲外にある操作対象オブジェクト(図3の例ではA〜Fアイコン)を選択できるようになり、その結果、前述の実施形態の課題を達成できるのであるが、さらに理解を容易にするために、以下にその具体例を説明する。
図6は、通常の把持状態を示す図である。この図に示すように、ユーザは右手27で筐体11を把持しており、その把持力は閾値Faよりも小さい常用把持力f1である。したがって、この場合、ステップS3の判定結果が“NO”になるので、画面表示位置の移動(ステップS6)は行われず、表示部13の表示状態は変化しない。
図示の表示状態において、親指28の操作範囲内(円弧29の内側)に位置する操作対象オブジェクトはアイコンG〜Oである。ユーザは、これらのアイコンG〜Oのいずれかを把持位置を変えずに親指28で操作することができる。しかし、操作範囲外(円弧29の外側)に位置するアイコンA〜Fについては、そのままでは操作できない。
図7(a)は、操作範囲外に位置するオブジェクトを操作する際の把持状態を示す図である。ユーザは、通常の把持状態と同様に右手27で筐体11を把持しているが、通常の把持状態に対して、その把持力が閾値Faよりも大きい意図的把持力f3である点で相違する。この図に示すように、通常の把持状態から意図的把持力f3の把持状態に遷移した直後には、ステップS3の判定結果が“YES”となり、ステップS4の画面表示位置の移動開始が実行されるので、表示部13の画面の表示情報全体が下方向に移動を開始する。太い白抜き矢印記号30は、その移動の動作を模式的に示している。移動の動作は一瞬であってもよいが、見た目の演出効果の点でアニメーションのようにスライドさせることが好ましい。移動によって空いた部分は、任意の色または任意のデザインのダミーの背景データ31で埋められており、移動量が増すに従ってこの背景データ31の縦方向サイズが増えるようになっている。
図7(b)は、画面の表示位置が所定の移動先に到達したときの様子を示す図である。この図において、移動の動作を模式的に示す太い白抜き矢印記号32は最大に伸びており、それに伴い、背景データ33の縦方向サイズも最大になっている。
先にも説明したとおり、“所定の移動先に到達”とは、操作対象オブジェクトが操作範囲内に位置した(到達した)ことをいう。すなわち、図示のように、元々操作範囲外に位置していた操作対象オブジェクト(Aアイコン〜Fアイコン)が操作範囲内(円弧29の内側)に達したときのことをいう。所定の移動先に到達すると、ステップS5の判定結果が“YES”となり、画面表示位置の移動が停止(ステップS6)するので、ユーザは、その停止画面を見て所望の操作対象オブジェクトを操作することができる。図示の例では、ユーザは親指28でAアイコンを操作している。
したがって、実施形態によれば、操作範囲外に位置する操作対象オブジェクトをそのままの把持状態で操作したい場合、ユーザは、筐体11の把持力を常用把持力f1から意図的把持力f3(またはf2)に変え、その意図的把持力f3(またはf2)を保ったまま画面の移動停止を待ち、所望の操作対象オブジェクトを操作すればよいので、把持位置をずらしたり、両手操作に変更したりするという面倒がない。
加えて、実施形態では、筐体11の把持力を意図的把持力f3(またはf2)から常用把持力f1に変えるだけで、画面の表示を元に戻す(復帰する)ことができる。
図8は、画面復帰の様子を示す図である。この図において、太い白抜き矢印記号34は復帰の動作を模式的に示している。この復帰の動作も移動時と同様のスライド動作であってもよいが、タッチ操作後のスライド動作は無用といえる(過度なアニメーション効果といえる)ので、瞬時の復帰とすることが好ましい。ただし、技術思想上は、スライド動作による復帰を排除しない。
図示のように、筐体11の把持力を意図的把持力f3(またはf2)から常用把持力f1に変えると、ステップS10の判定結果が“YES”となり、画面表示位置の復帰(ステップS11)が行われるので、単に把持力を弱めるだけで元の表示に戻すことができる。
以上のとおり、実施形態によれば、操作範囲外にある操作対象オブジェクトを操作範囲内に移動し、これにより、把持位置を変更することなく、また、両手操作を行うことなく、操作範囲外にある操作対象オブジェクト(図3の例ではA〜Fアイコン)を選択できるようになり、その結果、前述の実施形態の課題を達成することができる。
次に、画面表示位置の移動の仕方について具体的な例を挙げて説明する。
図9は、画面表示位置の移動方法の一例を示す概念図である。この図において、RAM25には、表示部13の画面サイズに対応した記憶容量を持つ領域(以下、ビデオメモリ35)が確保されている。表示部13は、このビデオメモリ35の内容を表示する。なお、ビデオメモリ35には実際にはアドレス順の画素データ(表示部13の表示画素ごとのデータ)が格納されており、表示部13はこの画素データを順次に読み出して画素単位に表示するが、説明を簡単にするために、この図では表示部13の表示イメージのままの状態(つまり、Aアイコン〜Oアイコンの配列を保ったままの状態)でビデオメモリ35に格納されているものとする。
実施形態においては、さらにRAM25にビデオメモリ35と同容量の領域(以下、バッファメモリ36)を確保する。
ステップS4で画面表示位置の移動を開始すると、まず、ビデオメモリ35の内容をバッファメモリ36にコピーする(ア)。次いで、バッファメモリ36の内容を読み出して、読み出した内容の先頭(画面の上端)にダミーの背景データ37(図7の背景データ31、33に相当)を付加し(イ)、背景データ37を付加した画面全体の先頭から所定の長さDcを切り出してビデオメモリ35の内容を書き換える(ウ)。
ここで、所定の長さDcは、表示部13の縦方向(長手方向)画素数に相当する長さであり、たとえば、表示部13の画面サイズを約4インチ程度のフルワイドVGA(480×854ドット)とした場合は、854ドット相当の長さである。また、背景データ37の縦方向サイズDvは、画面の移動時に0から所定の値(Dmax)まで逐次に増加し、背景データ37の縦方向サイズDvが増加するごとに、(ウ)の動作、すなわち、背景データ37を付加した画面全体の先頭から所定の長さDcを切り出してビデオメモリ35の内容を書き換えるという動作が行われる。
したがって、この(ウ)の動作の繰り返しにより、画面表示位置の移動を行うことができる。また、所定の値(Dmax)は所定の移動先に対応する。背景データ37の縦方向サイズDvがDmaxに達すると、それ以上、画面表示位置の移動が行われないからである。なお、画面の復帰時には、背景データ37の縦方向サイズDvを所定の値(Dmax)から0へと漸減させながら、(ウ)の動作を行えばよく、あるいは、一瞬で背景データ37の縦方向サイズDvを0に戻して(ウ)の動作を行えばよい。
図10は、画面表示位置の移動特性を示す図である。この図において、(a)は線形的な移動特性を示している。すなわち、特性線38は時間の経過に伴い、Dv=0からDv=Dmaxへと直線的に増加しており、したがって、これによれば、画面表示位置の移動を一定の速度(等速)で行うことができる。
また、(b)は非線形的な移動特性を示している。すなわち、特性線39は時間の経過に伴い、Dv=0からDv=Dmaxへと二次関数曲線的に増加しており、したがって、これによれば、画面表示位置の移動を最初は早く、中盤から終盤にかけてゆっくりとした速度(可変速)で行うことができる。
必要に応じ、等速又は可変速のいずれか一方の特性を選択して使用すればよい。また、筐体11を把持する圧力(左圧力センサ20や右圧力センサ21の測定値FL、FR)に応じて等速又は可変速の特性を変更するようにしてもよい。
たとえば、(c)は線形的な移動特性(等速の移動特性)に圧力応答性を持たせたものを示している。すなわち、複数の特性線40はいずれも時間の経過に伴い、Dv=0からDv=Dmaxへと直線的に増加しているが、各々は直線の傾きが異なっているため、圧力の大きさに応じて1つの特性線を選択して使用すれば、等速の移動特性に圧力応答性を持たせることができる。つまり、筐体11を強めに握った場合は画面の移動を早め、あるいは、筐体11を弱めに握った場合は画面の移動を遅くするといった圧力応答性を持たせることができる。
(d)も同様に、非線形的な移動特性(可変速の移動特性)に圧力応答性を持たせたものを示している。すなわち、複数の特性線41はいずれも時間の経過に伴い、Dv=0からDv=Dmaxへと二次関数曲線的に増加に増加しているが、各々は直線の傾きが異なっているため、圧力の大きさに応じて1つの特性線を選択して使用すれば、同様にして、可変速の移動特性に圧力応答性を持たせることができる。つまり、筐体11を強めに握った場合は画面の移動を早め、あるいは、筐体11を弱めに握った場合は画面の移動を遅くするといった圧力応答性を持たせることができる。
必要に応じ、これら(a)〜(d)いずれかの特性を選択して使用すればよい。
また、以上の説明では、画面表示位置の「移動先」を固定としているが、可変としてもよい。
図11は、移動先を可変とする場合の概念図である。(a)に示すように、所定の値(Dmax)は、画面表示位置の「移動先」を表すので、このDmaxを圧力(左圧力センサ20や右圧力センサ21の測定値FL、FR)に応じて変更するようにしてもよい。なお、ここでは、図10(a)の線形的な移動特性におけるDmaxへの適用を示しているが、これに限らず、図10(b)〜(d)のいずれについても適用できる。
Dmaxを圧力(左圧力センサ20や右圧力センサ21の測定値FL、FR)に応じて変更すると、(b)に示すように、表示部13の移動先42が上又は下に変化するので、たとえば、筐体11を強めに握った場合は移動先42を下にずらしたり、あるいは、筐体11を弱めに握った場合は移動先42を上にずらしたりすることができ、把持力に応じた画面の移動量制御を行うことができる。
また、以上の説明では、筐体11の両側面(左側面18と右側面19)に各々圧力センサ(左圧力センサ20と右圧力センサ21)を設けているが、いずれか一方だけに設ける態様であってもよい。
図12は、圧力センサを1個にした構成図である。(a)に示すように右圧力センサ20だけでもよく、あるいは、(b)に示すように左圧力センサ21だけでもよい。このように1個の圧力センサだけでも筐体11の把持力を検出することができる。ただし、圧力検出の信頼性の点では、筐体11の両側面(左側面18と右側面19)に各々圧力センサ(左圧力センサ20と右圧力センサ21)を設ける態様が望ましい。
また、以上の説明では、筐体11の把持力を検出するための手段として電気的な圧力検出手段(左圧力センサ20と右圧力センサ21)を用い、その測定値(FL、FR)と閾値Faとを比較して常用把持力f1と意図的把持力f2(またはf2)を区別しているが、これに限定されない。メカニカル(機械的)な圧力検出手段としてもよい。
図13は、機械的な圧力検出手段の一例構成図である。この図において、筐体11の側面(右側面18と左側面19)にプレート状の押圧部材43が配設されており、この押圧部材43の両端は第1及び第2の弾性部材44、45を介して筐体11の側面に取り付けられている。押圧部材43の略中間位置には筐体11の側面に向かう突起46が形成されており、その突起46にシャフト47の一端が固定されている。シャフト47の他端は、筐体11の側面に埋設された箱48に挿入されており、さらに、シャフト47の略中間付近に可動接点49が固定されている。可動接点49の両端は、箱48の両壁に取り付けられた固定接点50、51と所定の間隔を保って対向しており、この間隔を保持するために、可動接点49と箱48の底面との間に第3の弾性部材52が圧縮状態で挿入されている。
これらの各部は、一体として機械的な圧力検出手段53を構成する。
押圧部材43は、通常、第1及び第2の弾性部材44、45並びに第3の弾性部材52の弾性力により、筐体11の側面から浮いた状態にあり、同様に、可動接点49も固定接点50、51から所定の間隔を保って浮いた状態にある。したがって、通常時の接点はオフ状態にある。
ここで、筐体11を前記の常用把持力f1に相当する弱めの力で把持することを考える。このとき、押圧部材43は、弱めの把持力(常用把持力f1に相当)で筐体11の側面に押さえつけられようとする。今、当該弱めの把持力が、第1及び第2の弾性部材44、45並びに第3の弾性部材52の合計の弾性力(押圧部材43が筐体11に接触するのに必要な、弾性部材44、45並びに第3の弾性部材52を変形させるための力)を下回る程度のものとすると、この場合、弾性力が上回るので、押圧部材43は依然として筐体11の側面から浮いた状態にあり、同様に、可動接点49も固定接点50、51から所定の間隔を保って浮いた状態にあるので、スイッチはオフ状態を維持する。
さて、把持力を、第1及び第2の弾性部材44、45並びに第3の弾性部材52の合計の弾性力(同上)を上回る程度に強めた場合、つまり、前記の意図的把持力f3(またはf2)に相当する強めの把持力とした場合、押圧部材43は筐体11の側面に接触し、それに伴い、可動接点49と固定接点50、51とが接触するので、スイッチはオン状態に遷移する。
このように、この構成によれば、把持力を弱から強にすることにより、スイッチをオフからオンへと遷移させることができ、スイッチのオン/オフ遷移点は、第1及び第2の弾性部材44、45並びに第3の弾性部材52の合計の弾性力、すなわち、押圧部材43が筐体11に接触するのに必要な、弾性部材44、45並びに第3の弾性部材52を変形させるための力でコントロールすることができるから、所望の把持力(実施形態の閾値Faに相当する把持力)に合わせて弾性力を設定することにより、実施形態と同様に常用把持力f1と意図的把持力f3(またはf2)とを区別することができる。
なお、実施形態では、スマートフォンなどの携帯電話機能を有する携帯端末装置10を例にして説明したが、これに限定されない。タッチパネル付きの表示部を備えた電子機器であって、片手操作を行う必要がある電子機器であればよく、たとえば、ゲーム機、タブレットPC、ノートPC、電子辞書、電子書籍端末などであってもよい。
以下、本発明の特徴を付記する。
上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
図14は、付記1の構成図である。
付記1は、
少なくとも1つの操作対象オブジェクト100を表示部101(実施形態の表示部13に相当)に表示させるオブジェクト表示手段102(実施形態の主制御部23に相当)と、
筐体103(実施形態の筐体11に相当)に加えられる把持力を検出する把持力検出手段104(実施形態の左圧力センサ20及び右圧力センサ21または圧力検出手段53に相当)と、
前記把持力検出手段104によって検出された把持力に応じて前記表示部101上における前記操作対象オブジェクト100の表示位置を制御する表示位置制御手段105(実施形態の主制御部23に相当)と
を備えたことを特徴とする携帯端末装置106(実施形態の携帯端末装置10に相当)である。
(付記2)
付記2は、
前記表示位置制御手段は、前記把持力が所定の閾値を上回ったときに前記表示部上における前記操作対象オブジェクトの表示位置を片手操作可能な位置へと移動させるとともに、前記把持力が所定の閾値を上回った状態から下回った状態になったときに前記操作対象オブジェクトの表示位置を元の位置に復帰するように移動させることを特徴とする付記1に記載の携帯端末装置である。
(付記3)
付記3は、
前記表示位置制御手段は、前記操作対象オブジェクトの表示位置を片手操作可能な位置へと移動させる際に等速または可変速で移動させることを特徴とする付記2に記載の携帯端末装置である。
(付記4)
付記4は、
前記表示位置制御手段は、前記操作対象オブジェクトの表示位置の移動特性を、前記把持力検出手段によって検出された把持力に対応させて変更することを特徴とする付記3に記載の携帯端末装置である。
(付記5)
付記5は、
前記表示位置制御手段は、前記操作対象オブジェクトの表示位置の移動先の位置を、前記把持力検出手段によって検出された把持力に対応させて変更することを特徴とする付記2に記載の携帯端末装置である。
(付記6)
付記6は、
少なくとも1つの操作対象オブジェクトを表示部に表示させるオブジェクト表示工程と、
筐体に加えられる把持力を検出する把持力検出工程と、
前記把持力検出工程によって検出された把持力に応じて前記表示部上における前記操作対象オブジェクトの表示位置を制御する表示位置制御工程と
を含むことを特徴とする携帯端末制御方法である。
(付記7)
付記7は、
携帯端末装置のコンピュータに、
少なくとも1つの操作対象オブジェクトを表示部に表示させるオブジェクト表示手段と、
筐体に加えられる把持力を検出する把持力検出手段と、
前記把持力検出手段によって検出された把持力に応じて前記表示部上における前記操作対象オブジェクトの表示位置を制御する表示位置制御手段と
しての機能を与えることを特徴とするプログラムである。
100 操作対象オブジェクト
101 表示部
102 オブジェクト表示手段
103 筐体
104 把持力検出手段
105 表示位置制御手段
106 携帯端末装置

Claims (7)

  1. 少なくとも1つの操作対象オブジェクトを表示部に表示させるオブジェクト表示手段と、
    筐体に加えられる把持力を検出する把持力検出手段と、
    前記把持力検出手段によって検出された把持力に応じて前記表示部上における前記操作対象オブジェクトの表示位置を制御する表示位置制御手段と
    を備え
    前記表示位置制御手段は、前記把持力の大きさに応じて前記オブジェクトの表示位置の移動量または移動速度もしくはその双方を制御する
    ことを特徴とする携帯端末装置。
  2. 前記表示位置制御手段は、前記把持力が所定の閾値を上回ったときに前記表示部上における前記操作対象オブジェクトの表示位置を片手操作可能な位置へと移動させるとともに、前記把持力が所定の閾値を上回った状態から下回った状態になったときに前記操作対象オブジェクトの表示位置を元の位置に復帰するように移動させることを特徴とする請求項1に記載の携帯端末装置。
  3. 前記表示位置制御手段は、前記操作対象オブジェクトの表示位置を片手操作可能な位置へと移動させる際に等速または可変速で移動させることを特徴とする請求項2に記載の携帯端末装置。
  4. 前記表示位置制御手段は、前記操作対象オブジェクトの表示位置の移動特性を、前記把持力検出手段によって検出された把持力に対応させて変更することを特徴とする請求項3に記載の携帯端末装置。
  5. 前記表示位置制御手段は、前記操作対象オブジェクトの表示位置の移動先の位置を、前記把持力検出手段によって検出された把持力に対応させて変更することを特徴とする請求項2に記載の携帯端末装置。
  6. 少なくとも1つの操作対象オブジェクトを表示部に表示させるオブジェクト表示工程と、
    筐体に加えられる把持力を検出する把持力検出工程と、
    前記把持力検出工程によって検出された把持力に応じて前記表示部上における前記操作対象オブジェクトの表示位置を制御する表示位置制御工程と
    を含み、
    前記表示位置制御工程は、前記把持力の大きさに応じて前記オブジェクトの表示位置の移動量または移動速度もしくはその双方を制御する
    ことを特徴とする携帯端末制御方法。
  7. 携帯端末装置のコンピュータに、
    少なくとも1つの操作対象オブジェクトを表示部に表示させるオブジェクト表示手段と、
    筐体に加えられる把持力を検出する把持力検出手段と、
    前記把持力検出手段によって検出された把持力に応じて前記表示部上における前記操作対象オブジェクトの表示位置を制御する表示位置制御手段と
    しての機能を与え
    前記表示位置制御手段は、前記把持力の大きさに応じて前記オブジェクトの表示位置の移動量または移動速度もしくはその双方を制御する
    ことを特徴とするプログラム。
JP2013532408A 2011-09-05 2012-06-22 携帯端末装置、携帯端末制御方法及びプログラム Expired - Fee Related JP5999374B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2011192260 2011-09-05
JP2011192260 2011-09-05
PCT/JP2012/004065 WO2013035229A1 (ja) 2011-09-05 2012-06-22 携帯端末装置、携帯端末制御方法及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2013035229A1 JPWO2013035229A1 (ja) 2015-03-23
JP5999374B2 true JP5999374B2 (ja) 2016-09-28

Family

ID=47831710

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013532408A Expired - Fee Related JP5999374B2 (ja) 2011-09-05 2012-06-22 携帯端末装置、携帯端末制御方法及びプログラム

Country Status (3)

Country Link
US (1) US20140204063A1 (ja)
JP (1) JP5999374B2 (ja)
WO (1) WO2013035229A1 (ja)

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012153565A1 (ja) * 2011-05-11 2012-11-15 Necカシオモバイルコミュニケーションズ株式会社 入力装置
KR101972924B1 (ko) 2011-11-11 2019-08-23 삼성전자주식회사 휴대용 기기에서 부분 영역의 터치를 이용한 전체 영역 지정을 위한 방법 및 장치
JP6123106B2 (ja) * 2012-10-22 2017-05-10 シャープ株式会社 電子機器
JP5679594B2 (ja) * 2013-03-05 2015-03-04 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 入力装置、入力支援方法及びプログラム
JP2014211720A (ja) * 2013-04-17 2014-11-13 富士通株式会社 表示装置および表示制御プログラム
JP6297787B2 (ja) * 2013-04-25 2018-03-20 京セラ株式会社 携帯電子機器
KR102153006B1 (ko) * 2013-05-27 2020-09-07 삼성전자주식회사 입력 처리 방법 및 그 전자 장치
WO2014192878A1 (ja) * 2013-05-29 2014-12-04 京セラ株式会社 携帯機器および携帯機器における制御方法
JP5993802B2 (ja) * 2013-05-29 2016-09-14 京セラ株式会社 携帯機器、制御プログラムおよび携帯機器における制御方法
JP6155869B2 (ja) 2013-06-11 2017-07-05 ソニー株式会社 表示制御装置、表示制御方法およびプログラム
JP5759660B2 (ja) * 2013-06-21 2015-08-05 レノボ・シンガポール・プライベート・リミテッド タッチ・スクリーンを備える携帯式情報端末および入力方法
JP6100657B2 (ja) * 2013-09-26 2017-03-22 京セラ株式会社 電子機器
US9400572B2 (en) * 2013-12-02 2016-07-26 Lenovo (Singapore) Pte. Ltd. System and method to assist reaching screen content
CN103744589B (zh) * 2013-12-12 2018-07-13 华为终端(东莞)有限公司 一种页面内容的移动方法及装置
WO2015156217A1 (ja) * 2014-04-11 2015-10-15 シャープ株式会社 携帯端末装置
US10671275B2 (en) * 2014-09-04 2020-06-02 Apple Inc. User interfaces for improving single-handed operation of devices
US20180081524A1 (en) * 2014-11-28 2018-03-22 Huawei Technologies Co., Ltd. Screen Interface Moving Method and Terminal
JP5955421B2 (ja) * 2015-01-08 2016-07-20 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 入力装置、入力支援方法及びプログラム
KR102516670B1 (ko) * 2015-08-18 2023-04-03 삼성전자주식회사 전자 장치 및 전자 장치의 제어 방법
JP5955446B2 (ja) * 2015-11-24 2016-07-20 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 入力装置、入力支援方法及びプログラム
JP6098986B1 (ja) * 2016-05-12 2017-03-22 株式会社コンフォートビジョン研究所 携帯端末装置
KR102628789B1 (ko) * 2016-09-09 2024-01-25 삼성전자주식회사 전자 장치 및 전자 장치의 제어 방법
KR102659062B1 (ko) * 2016-11-29 2024-04-19 삼성전자주식회사 그립 센서의 감지 신호에 기초하여 ui를 표시하는 전자 장치
JP6358363B2 (ja) * 2017-06-01 2018-07-18 ソニー株式会社 表示制御装置、表示制御方法およびプログラム
KR20190027553A (ko) * 2017-09-07 2019-03-15 주식회사 하이딥 측면에 터치 압력 감지부를 구비한 휴대용 단말기
US10770037B2 (en) 2018-03-15 2020-09-08 Kyocera Document Solutions Inc. Mobile terminal device
CN109164950B (zh) * 2018-07-04 2020-07-07 珠海格力电器股份有限公司 一种移动终端系统界面设置方法、装置、介质和设备
US11487425B2 (en) * 2019-01-17 2022-11-01 International Business Machines Corporation Single-hand wide-screen smart device management
US10852901B2 (en) * 2019-01-21 2020-12-01 Promethean Limited Systems and methods for user interface adjustment, customization, and placement
JP7092074B2 (ja) * 2019-03-08 2022-06-28 日本電信電話株式会社 振動装置
CN111309183B (zh) * 2020-02-26 2022-04-15 京东方科技集团股份有限公司 触控显示系统及其控制方法

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2580760B2 (ja) * 1989-03-02 1997-02-12 日本電気株式会社 ブラウジング装置
JPH09160713A (ja) * 1995-09-29 1997-06-20 Toshiba Corp 信号変換装置、信号入力装置及び力電気変換装置
JPH10301695A (ja) * 1997-04-25 1998-11-13 Hitachi Ltd 状態検出方法及び携帯端末装置
JPH1145143A (ja) * 1997-07-28 1999-02-16 Hitachi Ltd スクロール機能付き携帯情報端末
US7800592B2 (en) * 2005-03-04 2010-09-21 Apple Inc. Hand held electronic device with multiple touch sensing devices
JP2000293289A (ja) * 1999-04-09 2000-10-20 Hitachi Ltd 携帯型端末装置
JP2004023498A (ja) * 2002-06-18 2004-01-22 Meidensha Corp 携帯情報端末の入力装置
JP2004177993A (ja) * 2002-11-22 2004-06-24 Panasonic Mobile Communications Co Ltd 圧力センサ付き携帯端末及び圧力センサ付き携帯端末により実行可能なプログラム
US7619616B2 (en) * 2004-12-21 2009-11-17 Microsoft Corporation Pressure sensitive controls
US7629966B2 (en) * 2004-12-21 2009-12-08 Microsoft Corporation Hard tap
JP2006201984A (ja) * 2005-01-20 2006-08-03 Nec Corp 携帯情報端末及びそれに用いる文字入力方法
JP4880304B2 (ja) * 2005-12-28 2012-02-22 シャープ株式会社 情報処理装置および表示方法
JP2007259671A (ja) * 2006-03-27 2007-10-04 Funai Electric Co Ltd 携帯型電子機器
KR20080042354A (ko) * 2006-11-09 2008-05-15 삼성전자주식회사 이동 통신 단말기에서 대기 화면 전환 방법 및 대기 화면회전 방법과 그 이동 통신 단말기
US7631557B2 (en) * 2007-01-24 2009-12-15 Debeliso Mark Grip force transducer and grip force assessment system and method
JP4605214B2 (ja) * 2007-12-19 2011-01-05 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP2009151631A (ja) * 2007-12-21 2009-07-09 Sony Corp 情報処理装置および情報処理方法、並びにプログラム
JP2009169820A (ja) * 2008-01-18 2009-07-30 Panasonic Corp 携帯端末
WO2009145464A2 (ko) * 2008-04-01 2009-12-03 Oh Eui-Jin 데이터입력장치 및 데이터입력방법
JP4561888B2 (ja) * 2008-07-01 2010-10-13 ソニー株式会社 情報処理装置、及び情報処理装置における振動制御方法
JP2010020601A (ja) * 2008-07-11 2010-01-28 Nec Corp 携帯端末、タッチパネルの項目配置方法およびプログラム
US8854320B2 (en) * 2008-07-16 2014-10-07 Sony Corporation Mobile type image display device, method for controlling the same and information memory medium
WO2010036050A2 (en) * 2008-09-26 2010-04-01 Lg Electronics Inc. Mobile terminal and control method thereof
EP3654141A1 (en) * 2008-10-06 2020-05-20 Samsung Electronics Co., Ltd. Method and apparatus for displaying graphical user interface depending on a user's contact pattern
JP4752900B2 (ja) * 2008-11-19 2011-08-17 ソニー株式会社 画像処理装置、画像表示方法および画像表示プログラム
JP2010154090A (ja) * 2008-12-24 2010-07-08 Toshiba Corp 携帯端末
US20110039602A1 (en) * 2009-08-13 2011-02-17 Mcnamara Justin Methods And Systems For Interacting With Content On A Mobile Device
KR20110028834A (ko) * 2009-09-14 2011-03-22 삼성전자주식회사 터치스크린을 구비한 휴대 단말기의 터치 압력을 이용한 사용자 인터페이스 제공 방법 및 장치
JP2011065512A (ja) * 2009-09-18 2011-03-31 Fujitsu Ltd 情報処理システム、情報処理プログラム、操作認識システム、および操作認識プログラム、
KR20110031797A (ko) * 2009-09-21 2011-03-29 삼성전자주식회사 휴대 단말기의 입력 장치 및 방법
JP2011108186A (ja) * 2009-11-20 2011-06-02 Sony Corp 情報処理装置、情報処理方法およびプログラム
US8432368B2 (en) * 2010-01-06 2013-04-30 Qualcomm Incorporated User interface methods and systems for providing force-sensitive input
US8860672B2 (en) * 2010-05-26 2014-10-14 T-Mobile Usa, Inc. User interface with z-axis interaction
US8593418B2 (en) * 2010-08-08 2013-11-26 Qualcomm Incorporated Method and system for adjusting display content
US9030419B1 (en) * 2010-09-28 2015-05-12 Amazon Technologies, Inc. Touch and force user interface navigation

Also Published As

Publication number Publication date
US20140204063A1 (en) 2014-07-24
WO2013035229A1 (ja) 2013-03-14
JPWO2013035229A1 (ja) 2015-03-23

Similar Documents

Publication Publication Date Title
JP5999374B2 (ja) 携帯端末装置、携帯端末制御方法及びプログラム
JP5983503B2 (ja) 情報処理装置及びプログラム
US10331313B2 (en) Method and apparatus for text selection
JP5066055B2 (ja) 画像表示装置、画像表示方法およびプログラム
KR101579662B1 (ko) 제스처에 응답하여 정보를 디스플레이하는 전자 장치 및 디스플레이 방법
KR101452038B1 (ko) 모바일 기기 및 그 화면 제어 방법
US8854317B2 (en) Information processing apparatus, information processing method and program for executing processing based on detected drag operation
KR100871099B1 (ko) 사용자 인터페이스의 방향을 변경하기 위한 방법 및 장치
US8543934B1 (en) Method and apparatus for text selection
KR101343479B1 (ko) 전자 디바이스 및 이의 제어 방법
JP5759660B2 (ja) タッチ・スクリーンを備える携帯式情報端末および入力方法
JP5531133B2 (ja) 表示装置および表示方法
CA2821814C (en) Method and apparatus for text selection
EP2660727B1 (en) Method and apparatus for text selection
KR20070034767A (ko) 다중 표시영역을 갖는 이동통신 단말기 및 이를 이용한 디스플레이 간의 데이터 표시 방법
EP2660697A1 (en) Method and apparatus for text selection
KR20120036897A (ko) 터치 감지형 디스플레이 상에서의 선택
KR20110133450A (ko) 휴대용 전자 디바이스 및 이의 제어 방법
JP5968588B2 (ja) 電子機器
JP6551579B2 (ja) 携帯端末及びプログラム
CN108700990A (zh) 一种锁屏方法、终端及锁屏装置
US10416870B2 (en) Display control device and non-transitory computer-readable storage medium having program recorded thereon
KR101229629B1 (ko) 애플리케이션 간의 콘텐츠 전달 방법 및 이를 실행하는 장치
CA2821772C (en) Method and apparatus for text selection
TWI475469B (zh) 具有觸碰感應顯示器之可攜式電子裝置及導覽裝置及方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150508

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20150618

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160324

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160517

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160803

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160816

R150 Certificate of patent or registration of utility model

Ref document number: 5999374

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees