WO2017022031A1 - 情報端末装置 - Google Patents

情報端末装置 Download PDF

Info

Publication number
WO2017022031A1
WO2017022031A1 PCT/JP2015/071857 JP2015071857W WO2017022031A1 WO 2017022031 A1 WO2017022031 A1 WO 2017022031A1 JP 2015071857 W JP2015071857 W JP 2015071857W WO 2017022031 A1 WO2017022031 A1 WO 2017022031A1
Authority
WO
WIPO (PCT)
Prior art keywords
area
input
terminal device
information terminal
image
Prior art date
Application number
PCT/JP2015/071857
Other languages
English (en)
French (fr)
Inventor
益岡 信夫
橋本 康宣
鈴木 基之
吉澤 和彦
清水 宏
Original Assignee
日立マクセル株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日立マクセル株式会社 filed Critical 日立マクセル株式会社
Priority to PCT/JP2015/071857 priority Critical patent/WO2017022031A1/ja
Priority to US15/744,045 priority patent/US20180203602A1/en
Priority to CN201580082121.8A priority patent/CN107924274A/zh
Priority to JP2017532265A priority patent/JPWO2017022031A1/ja
Publication of WO2017022031A1 publication Critical patent/WO2017022031A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/70Details of telephonic subscriber devices methods for entering alphabetical characters, e.g. multi-tap or dictionary disambiguation

Definitions

  • FIG. 2A is a diagram showing a basic configuration of the touch panel in the input area operation mode.
  • the touch panel 2 of the information terminal device 1 includes a display area 3 and an input area 4.
  • the touch panel 2 corresponds to the reference numeral 113 in FIG. 1
  • the display area 3 corresponds to the display unit 114 in FIG. 1
  • the input area 4 corresponds to the operation input unit 115 in FIG.
  • the display area 3 and the input area 4 are provided to overlap at the same position on the touch panel 2.
  • the input area 4 is a part of the touch panel 2 as a dedicated area for operation input by the user. This area is provided separately from the display area 3.
  • the input area 4 has a substantially similar shape obtained by reducing the display area 3 to a fraction of a size, and is arranged at the lower right corner of the touch panel 2, for example. The user can operate the entire display area 3 only by operating the input area 4.
  • (B) is a case where the background icon is moved and displayed.
  • the background icon 6a overlapping the input area 4 is moved to a position not overlapping the input area 4 and displayed.
  • the icon “H” is displayed below the icon “G”. In this way, the background icon 6a can be operated without any trouble.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

画像を表示するとともにユーザの操作を入力可能なタッチパネル2を有する情報端末装置1において、タッチパネル2には画像を表示する表示エリア3と操作入力専用の入力エリア4を有し、表示エリアに表示する画像を処理する画像処理部112と、入力エリアに対する操作入力を検出する操作入力部115とを備える。エリア制御部116は、タッチパネル2の一部に入力エリア4を割り当てるとともに、入力エリア4を操作すると表示エリア3に表示されている画像に対する操作に変換する機能を有する。

Description

情報端末装置
 本発明は、タッチパネルを搭載した情報端末装置に関する。
 近年、スマートフォンあるいはタブレット型のパーソナルコンピュータなどのように、タッチパネルを搭載した情報端末装置が普及している。タッチパネルを搭載した情報端末装置では、ユーザが指でパネルをタッチ操作することで所望の入力を行う。よって、タッチ操作のしやすい装置構成であることが要求される。例えばユーザが片手で操作できることが望ましい。
 これに関連する技術として特許文献1には、「ユーザがタッチしやすいエリアとしにくいエリアとを自動的に正しく検出し、それに基づいてユーザの操作性を改善すること」を課題とし、「複数の入力ボタンを表示しタッチされた当該入力ボタンを検知するタッチパネルと、前記入力ボタンへのタッチによって発生する揺れを検知する揺れ検知部と、タッチされた前記入力ボタンの前記タッチパネル上の位置と、当該入力ボタンへのタッチによって発生した揺れとの関係に基づいて、前記複数の入力ボタンの前記タッチパネル上における表示位置を設定する表示制御部と、を備える」端末が開示されている。
特開2015-11675号公報
 特許文献1の技術によれば、ユーザがタッチしやすいエリア(タッチエリア)に複数の入力ボタンを移動させて表示することで、片手でタッチできるようにしている。タッチエリアの大きさはユーザ毎に限られているので、タッチパネルの大画面化等により入力ボタンの数が増加すると、全ての入力ボタンをタッチエリアに収納しきれない状況になる。その際、入力ボタンを縮小して表示することも考えられるが、それぞれの入力ボタンの識別が困難となり、操作ミスが発生しやすくなる。すなわち特許文献1の技術は、ユーザの手の大きさに合わせたサイズのタッチパネルを使用することと等価である。
 本発明は、タッチパネルを搭載した情報端末装置において、ユーザが操作しやすくかつ操作ミスの発生しにくい装置構成を提供することを目的とする。
 本発明は、画像を表示するとともにユーザの操作を入力可能なタッチパネルを有する情報端末装置において、タッチパネルには画像を表示する表示エリアと操作入力専用の入力エリアを有し、表示エリアに表示する画像を処理する画像処理部と、入力エリアに対する操作入力を検出する操作入力部と、タッチパネルの一部に入力エリアを割り当てるとともに、入力エリアを操作すると表示エリアに表示されている画像に対する操作に変換するエリア制御部と、を備える構成とする。
 本発明によれば、タッチパネルの一部に表示画面と対応する専用の入力エリアを設けることで、ユーザが操作しやすくかつ操作ミスの発生しにくい情報端末装置を実現できる。
情報端末装置の内部構成を示すブロック図(実施例1)。 入力エリア操作モードにおけるタッチパネルの基本構成を示す図。 情報端末装置をユーザが操作中の状態を示す図。 入力エリアをタッチパネルの左下隅に配置した場合を示す図。 入力エリアをタッチパネルの左右両側に配置した場合を示す図。 情報端末装置の使用姿勢に応じて入力エリアの配置を変化させる場合を示す図。 入力エリア設定に伴う表示画像の変更を示す図(実施例2)。 入力エリアの移動に伴う表示画像の変更を示す図。 入力エリアに表示エリアの画像を縮小して表示した例を示す図(実施例3)。 表示エリアに表示しない画像の縮小画像を入力エリアに表示する場合を示す図。
 以下、本発明の実施形態を図面を用いて説明する。
 図1は、情報端末装置の内部構成を示すブロック図である。ここでは、スマートフォンの場合を例に説明する。情報端末装置1は、制御部101、メモリ102、ストレージ103、GPS(Global Positioning System)受信部104、地磁気センサ105、加速度センサ106、ジャイロセンサ107、マイク108、音声処理部109、スピーカ110、撮像部111、画像処理部112、タッチパネル113、エリア制御部116、操作ボタン117、入出力I/F118、基地局通信部119、無線通信部120を適宜用いて構成され、各構成部はバス150を介して相互に接続されている。
 制御部101はCPU(Central Processing Unit)等で構成され、メモリ102に記憶したプログラムを実行することによって、各構成部を制御し、各種の処理を実行する。
  メモリ102はフラッシュメモリなどであり、制御部101が使用するプログラムやデータを記憶する。さらに情報端末装置1はメモリカードなどのストレージ103を備え、音楽、ビデオ、写真のデータなどを保存することができる。
 GPS受信部104は、上空にあるGPS衛星からの信号を受信する。これにより、情報端末装置1の現在位置を検出する。地磁気センサ105は、情報端末装置1の向いている方向を検出する。加速度センサ106は、情報端末装置1の加速度を検出し、ジャイロセンサ107は、情報端末装置1の角速度を検出する。これらのセンサにより、情報端末装置1の傾きや動きを詳細に検出することができる。
 マイク108は外部の音声を入力し、スピーカ110は外部に対して音声を出力する。音声処理部109は入出力される音声を処理する。
  撮像部111はカメラなどであり、画像処理部112は、撮像部111から入力された画像を処理する。また画像処理部112は、タッチパネル113の表示部114に表示する画像を処理する。
 タッチパネル113は、表示部114と操作入力部115で構成される。表示部114は液晶ディスプレイ(LCD)などの画像を表示するデバイスであり、表示部114の表示面には操作入力部115を有する。操作入力部115は、例えば静電容量式などのタッチパッド方式の入力手段であり、指などによる接触操作を操作入力として検出する。
 表示部114には、例えばアプリケーションのアイコンあるいはメニューを表示する。ユーザが所望のアイコンあるいはメニューを指先で1回押す動作(タップ動作)を行うとこれを操作入力部115が検出する。そして、タップした位置に表示されているアイコンに対応したアプリケーションを実行し、あるいはメニューに対応した処理を実行する。あるいは、ホーム画面が表示された状態でユーザが表示面(操作入力部115)を指先で押して左右の方向に滑らせる動作(スワイプ動作)を行うことにより、ホーム画面を切り替える処理を行う。
 エリア制御部116は、タッチパネル113に対し、ユーザが操作入力するための特定の入力エリアを割り当てる。すなわち、表示部114に対し画像とともに入力エリアを表示させる。また、操作入力部115が入力エリアで為されたユーザの操作を検出すると、対応する画像位置への操作に変換するよう制御する。
 操作ボタン117はプッシュボタンスイッチなどであり、操作ボタン117が押されたことを検出すると制御部101に伝えられ、その操作ボタン117に対応した動作を実行する。
  入出力I/F118は、例えばUSB(Universal Serial Bus)などであり、外部機器とデータの送受信を行うインターフェースである。
 基地局通信部119は、W-CDMA(Wideband Code Division Multiple Access)やLTE(Long Term Evolution)などの基地局と遠距離の無線通信を行う通信インターフェースである。無線通信部120は、IEEE802.11a/b/nなどの無線LANにより無線通信用アクセスポイントと無線通信を行う通信インターフェースである。
 本実施例においては、タッチパネル113に対してユーザが操作する場合、表示部114に表示されている画像(アイコン)に対し直接操作する代わりに、タッチパネル113内に設けた入力エリアに対して操作する新たな操作モード(入力エリア操作モード)を導入する。ユーザは入力エリア内のある位置を操作すると、これに対応する表示部114の画像(アイコン)への操作が実行されることに特徴がある。これを実現するためエリア制御部116は、タッチパネル113内に所定の入力エリアを表示させ、これに合わせて必要に応じ画像(アイコン)の表示(配置)を変更する。またエリア制御部116は、入力エリアで為されたユーザの操作を操作入力部115が検出すると、表示部114に表示されている対応する画像(アイコン)に対する操作とみなす変換動作を行う。入力エリア操作モードを設けることで、表示部114が大画面の場合でもユーザは小面積の入力エリアを片手で操作することができ、また表示部114には画像(アイコン)がそのまま表示されているので、ユーザが操作しやすくかつ操作ミスの発生しにくい情報端末装置を実現できる。
  なお、タブレット型のパーソナルコンピュータ(タブレット端末)についても、図1に示すスマートフォンとほぼ同じ構成であり、説明を省略する。
 以下、本実施例の入力エリア操作モードの表示例と操作例について説明する。
  図2Aは、入力エリア操作モードにおけるタッチパネルの基本構成を示す図である。情報端末装置1のタッチパネル2は、表示エリア3と入力エリア4で構成する。タッチパネル2は図1の符号113、表示エリア3は図1の表示部114、入力エリア4は図1の操作入力部115に対応する。従来は、表示エリア3と入力エリア4はタッチパネル2上で同じ位置に重ねて設けられていたが、本実施例では、入力エリア4はユーザが操作入力する専用の領域として、タッチパネル2の一部の領域に表示エリア3とは別に設ける。入力エリア4は表示エリア3を数分の一のサイズに縮小した略相似形とし、例えばタッチパネル2の右下隅に配置する。ユーザはこの入力エリア4を操作するだけで、表示エリア3全体に対する操作が可能となる。
 本実施例では、表示エリア3と入力エリア4のタッチパネル2上の位置が異なるため、表示エリア3の各位置と入力エリア4内の各位置とを対応させている。すなわち、表示エリア3の座標P(x、y)と入力エリア4内の座標P’(x’、y’)は、それぞれのエリアの左上隅位置Po、Po’を座標原点としたとき、
      x’=(1/k)x、y’=(1/k)y
で示される比例関係とする。kは1より大きい係数で、表示エリア3と入力エリア4のサイズの比率に等しい。このような座標変換は、図1のエリア制御部116で行う。これにより、ユーザが入力エリア4内の位置P’を操作すると、表示エリア3の対応する位置Pへの操作として変換される。
 入力エリア4にはその領域を示すために、輪郭線や色分け(半透明含む)表示して区別するのがよい。操作モード切替ボタン5は図1における操作ボタン117の1つであり、入力エリア操作モードのON/OFF、すなわち、従来の表示エリア3全体で操作するモード(通常操作モード)と、専用の入力エリア4から操作するモード(入力エリア操作モード)との切り替えを行う。なお、操作モード切替ボタン5は表示エリア3にアイコンとして表示してもよい。
 入力エリア操作モードに設定されている場合は通常操作モードを無効とし、入力エリア4以外の表示エリア3内の位置Pを操作しても反応しないようにする。ただし特殊な場合として、入力エリア4と表示エリア3の両方で操作可能な二重操作モードを設けて、切替ボタン5で選択できるようにしてもよい。
 図2Bは、情報端末装置をユーザが操作中の状態を示す図である。この場合、ユーザは入力エリア操作モードを選択し、右手で情報端末装置1を保持している。表示エリア3のP位置に対する操作(例えばタップ)を行いたいとき、右手の親指10で入力エリア4の対応するP’位置に対して操作(タップ)を行えば良い。よって、右手だけで情報端末装置1を保持しながら操作ができ、操作性が向上する。特に大画面のタッチパネル2を有するタブレット端末等の場合には、従来は片手での保持と操作は困難であったが、本実施例によれば手を持ち替えすることなく操作でき、使い勝手が大幅に向上する。また、表示エリア3には画像(アイコン)が通常サイズでそのまま表示されているので、ユーザが画像を識別する上で何ら支障になることはない。
 入力エリア操作モードでは、入力エリア4内での親指10の操作位置ずれ(Δx’、Δy’)があると、表示エリア3に対する操作位置ずれ(Δx、Δy)はk倍に拡大する。よって、表示エリア3の微細な表示画像に対して操作するときは、操作位置ずれによる操作ミスが生じる恐れがある。この対策としてホバリング機能を利用するとよい。すなわち、ユーザの指(操作物)10が入力エリア4内のタッチパネル面に所定の距離以内に接近すると、操作入力部115はこれを検出し、指10の接近位置に対応する表示エリア3内の位置に被操作位置を示すカーソル9(破線矢印で示す)を表示する。ユーザはこのカーソル9の位置を見ながら指10の位置を移動させることで、目標の画像(アイコン)からの位置ずれがなくなり操作ミスをなくすことができる。
 入力エリアはユーザの使用状態に応じて、所望の位置に配置することができる。図3Aと3Bは、入力エリアの配置を切り替えた例を示す。
  図3Aは、入力エリアをタッチパネルの左下隅に配置した場合を示す図である。入力エリア4を左側に配置することで、ユーザが左手で操作する場合に有効となる。この場合も表示エリア3の位置Pと入力エリア4の操作位置P’が対応している。
 図3Bは、入力エリアをタッチパネルの左右両側に配置した場合を示す図である。入力エリア4a,4bを左右両側に配置することで、ユーザは左手と右手のいずれでも操作することができる。この場合、いずれの入力エリア4a,4bを使用しても、表示エリア3全体に対して同様に操作できる。すなわち、表示エリア3の位置Pは、2つの入力エリア4a,4bの2つの操作位置P’,P”に対応している。さらに入力エリアの数は、3個以上とすることもできる。
 なお、2つの入力エリアを有する場合には、それぞれが表示エリア3に表示するカーソルマークを異ならせるのがよい。また、2つの入力エリアで別の操作機能を与えることもできる。例えば、左側の入力エリア4aでカーソル表示を行い、右側の入力エリア4bでクリック動作を行わせるようにすれば、複雑な操作を簡単に実行させることができる。
  以上のような入力エリア4の配置及び数の切替は、使用状態に応じてユーザが操作モード切替ボタン5により選択できるものとする。
 図4は、情報端末装置の使用姿勢に応じて入力エリアの配置を変化させる場合を示す図である。この図では、情報端末装置1を横置き状態(横長表示)で使用している。装置の姿勢(傾斜状態)は図1の加速度センサ106により検出し、画像処理部112は表示エリア3に表示する画像8を正立する方向に回転させている。これに合わせてエリア制御部116は、入力エリア4をタッチパネル2に対して所定の位置(例えば右下隅)に自動配置する。さらには、入力エリア4を重力方向の最下位置(右下隅または左下隅)に配置させてもよい。これにより、入力エリア4をユーザにとって操作しやすい位置に自動的に配置することができる。なお、装置の姿勢が水平状態の場合には傾斜状態に応じた自動配置が不安定になる恐れがあるので、表示画像8の表示方向に対して予め決めた方向に配置するようデフォルト設定しておけば、動作が安定化する。この場合も表示エリア3の位置Pと入力エリア4の操作位置P’が対応していることは同様である。
 いずれの場合も、表示エリア3の位置Pと入力エリア4の操作位置P’の座標変換は、エリア制御部116によって行われる。またエリア制御部116は、入力エリアの配置に関して前回使用時の配置を記憶しておき、次に入力エリア操作モードで使用するときは前回の配置(例えば右下隅)を再現させるようにしてもよい。
 上記の説明では、入力エリア4のサイズは所定のサイズに固定したが、ユーザの手(指)の大きさやタッチパネル2のサイズ等に合わせてユーザが設定できるようにしてもよい。また、入力エリア4の縦横比は表示エリア2の縦横比と略等しくしたが(すなわち略相似形)、異なる比としてもよい。その場合は、エリア制御部116の行う座標変換において、縦方向と横方向の変換係数kを異ならせればよい。
 実施例1によれば、表示エリア3が大画面の場合でもユーザは小面積の入力エリア4を片手で操作することができ、また表示エリア3には画像(アイコン)がそのまま表示されているので、ユーザが操作しやすくかつ操作ミスの発生しにくい情報端末装置を実現できる。
 実施例2では、入力エリアの設定に伴い表示画像を変更するようにした。
  図5は、入力エリア設定に伴う表示画像の変更を示す図である。(a)は通常表示(通常操作モード)の場合で、表示エリア3にはホーム画面で用いられる複数のアイコン6が表示されている。符号4’は、入力エリアが配置される予定の領域である。この入力エリア予定領域4’には、アイコンの一部6a(ここでは記号「H」で示すアイコン)が重なっている。このような場合、画像処理部112は、重なったアイコン6a(以下、背景アイコンと呼ぶ)については次のように表示を変更する。
 (b)は背景アイコンを移動させて表示する場合である。入力エリア4に重なる背景アイコン6aを入力エリア4に重ならない位置に移動させて表示する。この例では、アイコン「H」をアイコン「G」の下側に移動させて表示する。このようにすれば、背景アイコン6aについても支障なく操作することができる。
 (c)は背景アイコンを非表示にする場合である。表示エリア3に空きスペースがない場合は、入力エリア4に重なる背景アイコン6aを非表示とする。非表示とした背景アイコンについては、例えば次のページに移動して表示させることもできる。
 図6は、入力エリアの移動に伴う表示画像の変更を示す図である。(a)はタッチパネル2の右側位置に入力エリア4aを設定した場合である。表示画像であるアイコン6は、入力エリア4aを避けて表示されている。特にアイコン6bは、入力エリア4aの左側に表示されている。この状態で(b)のように入力エリアを左側4bに移動させたとする。この場合、アイコン6bは入力エリア4bと重なるので、入力エリア4bの右側位置6b’に移動させる。
 この例では、表示画像がアイコンの場合について示したが、連続した画像の場合には、入力エリアに重ならないように画像全体を縮小して表示させてもよい。上記した表示画像の変更は、エリア制御部116の指示を受けて画像処理部112が実行する。実施例2によれば、入力エリアの設定に連動して表示画像を変更するので、入力エリアに重なった画像(アイコン)に対して操作不能になることはない。
 実施例3では、入力エリアに表示エリアの画像を縮小して表示させるようにした。
  図7は、入力エリアに表示エリアの画像を縮小して表示した例を示す図である。入力エリア4には、表示エリア3に表示されているアイコン6の画像を縮小し、縮小アイコン7を表示している。入力エリア4内の縮小アイコン7の配置は表示エリア3内のアイコン6の配置と同様である。すなわち、縮小アイコン7の座標とアイコン6の座標は対応関係にある。縮小アイコン7の表示は、エリア制御部116の指示を受けて画像処理部112が実行する。
 このように入力エリア4においても表示エリア3の画像を縮小表示することで、ユーザは、入力エリア4内の縮小画像を見ながら操作できる。よって、表示エリア3の操作対象画像との位置ずれが少なくなり、操作エラーを防止できる。
 ここでは、表示エリア3に表示される複数のアイコン6(「A」~「F」)は入力エリア4に重ならない場合を示しているが、重なった場合には入力エリア4に表示する縮小画像について次のいずれかの処理を行う。
(1)図5(b)のように背景アイコンを表示エリア3で移動させて表示する場合は、入力エリア4でも同様に背景アイコンの縮小画像を移動させて表示する。
(2)図5(c)のように背景アイコンを表示エリア3に表示しない場合は、入力エリア4でも背景アイコンの縮小画像を表示しない。
(3)図5(c)のように背景アイコンを表示エリア3に表示しない場合でも、入力エリア4の対応する位置に表示スペースが存在するので、背景アイコンの縮小画像を表示する。
 図8は、(3)の処理、すなわち表示エリア3に表示しない画像の縮小画像を入力エリア4に表示する場合を示す図である。表示エリア3には背景アイコンである「H」「I」が表示されていないが、入力エリア4にはそれらの縮小アイコン7aを表示する。これによれば、表示エリア3に表示されない画像(アイコン)に対しては、入力エリア4に表示される縮小画像を見ながら操作することができるので、表示画像が入力エリア4と重なることは障害にならない。
 実施例3によれば、ユーザは、表示エリア3の画像だけでなく入力エリア4の縮小画像を見ながら操作できるので、操作対象画像との位置ずれが少なく、操作エラーを防止できる効果がある。
 上記した各実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、各実施例の構成の一部について、他の実施例の構成の追加・削除・置換をすることが可能である。例えば、実施例1における入力エリアの各種配置と、実施例3における縮小表示の組合せは任意の組合せが可能である。
 また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現しても良い。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現しても良い。
 また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えても良い。
 1…情報端末装置、2…タッチパネル、3…表示エリア、4…入力エリア、5…操作モード切替ボタン、6…アイコン、7…縮小アイコン、9…カーソル、101…制御部、106…加速度センサ、112…画像処理部、113…タッチパネル、114…表示部、115…操作入力部、116…エリア制御部、117…操作ボタン。

Claims (8)

  1.  画像を表示するとともにユーザの操作を入力可能なタッチパネルを有する情報端末装置において、
     前記タッチパネルには画像を表示する表示エリアと操作入力専用の入力エリアを有し、
     前記表示エリアに表示する画像を処理する画像処理部と、
     前記入力エリアに対する操作入力を検出する操作入力部と、
     前記タッチパネルの一部に前記入力エリアを割り当てるとともに、該入力エリアを操作すると前記表示エリアに表示されている画像に対する操作に変換するエリア制御部と、
     を備えることを特徴とする情報端末装置。
  2.  請求項1に記載の情報端末装置において、
     前記入力エリアは前記表示エリアを略相似形に縮小した形状とし、
     前記エリア制御部は、前記表示エリア内の位置と前記入力エリア内の位置を対応させるための座標変換機能を有することを特徴とする情報端末装置。
  3.  請求項1に記載の情報端末装置において、
     前記入力エリアに対し操作入力のために操作物を所定の距離以内に接近させると、前記操作物の接近位置に対応する前記表示エリア内の位置に被操作位置を示すカーソルを表示することを特徴とする情報端末装置。
  4.  請求項1に記載の情報端末装置において、
     前記タッチパネル内に設定する前記入力エリアの配置、及び設定する入力エリアの数を選択する操作モード切替ボタンを有することを特徴とする情報端末装置。
  5.  請求項1に記載の情報端末装置において、
     当該情報端末装置の姿勢を検出する加速度センサを備え、
     加速度センサの検出した当該情報端末装置の姿勢に応じて、前記エリア制御部は前記タッチパネル内に設定する前記入力エリアの配置を決定することを特徴とする情報端末装置。
  6.  請求項1に記載の情報端末装置において、
     前記画像処理部は、前記表示エリアに表示する画像のうち、前記入力エリアを設定することにより該入力エリアと重なる画像については、重ならない位置に移動させて表示するか又は非表示とすることを特徴とする情報端末装置。
  7.  請求項1に記載の情報端末装置において、
     前記画像処理部は、前記表示エリアに表示する画像を、前記入力エリアにおいても縮小画像として表示させることを特徴とする情報端末装置。
  8.  請求項7に記載の情報端末装置において、
     前記画像処理部は、前記表示エリアに表示する画像のうち、前記入力エリアを設定することにより該入力エリアと重なる画像については前記表示エリアでは非表示とし、前記入力エリアにおいて前記縮小画像として表示させることを特徴とする情報端末装置。
PCT/JP2015/071857 2015-07-31 2015-07-31 情報端末装置 WO2017022031A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
PCT/JP2015/071857 WO2017022031A1 (ja) 2015-07-31 2015-07-31 情報端末装置
US15/744,045 US20180203602A1 (en) 2015-07-31 2015-07-31 Information terminal device
CN201580082121.8A CN107924274A (zh) 2015-07-31 2015-07-31 信息终端装置
JP2017532265A JPWO2017022031A1 (ja) 2015-07-31 2015-07-31 情報端末装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/071857 WO2017022031A1 (ja) 2015-07-31 2015-07-31 情報端末装置

Publications (1)

Publication Number Publication Date
WO2017022031A1 true WO2017022031A1 (ja) 2017-02-09

Family

ID=57942559

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/071857 WO2017022031A1 (ja) 2015-07-31 2015-07-31 情報端末装置

Country Status (4)

Country Link
US (1) US20180203602A1 (ja)
JP (1) JPWO2017022031A1 (ja)
CN (1) CN107924274A (ja)
WO (1) WO2017022031A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023001310A (ja) * 2021-02-03 2023-01-04 マクセル株式会社 携帯端末

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7409770B2 (ja) * 2018-12-28 2024-01-09 株式会社バンダイナムコエンターテインメント ゲームシステム、プログラム及び端末装置
CN110069178B (zh) * 2019-03-14 2021-04-02 维沃移动通信有限公司 界面控制方法及终端设备
CN113253874B (zh) * 2021-06-01 2024-04-30 北京有竹居网络技术有限公司 显示装置的控制方法、装置、终端和存储介质
CN118113181A (zh) * 2022-11-30 2024-05-31 华为技术有限公司 一种单手操作方法及电子设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009064209A (ja) * 2007-09-06 2009-03-26 Sharp Corp 情報表示装置
JP2013020532A (ja) * 2011-07-13 2013-01-31 Jvc Kenwood Corp タッチパネル操作装置、タッチパネル操作装置の制御方法およびプログラム
JP2013105496A (ja) * 2011-11-11 2013-05-30 Samsung Electronics Co Ltd 携帯用機器のタッチ入力方法及び装置
JP2015076045A (ja) * 2013-10-11 2015-04-20 Necパーソナルコンピュータ株式会社 情報処理装置、方法及びプログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4592085B2 (ja) * 2005-05-06 2010-12-01 キヤノン株式会社 情報処理装置及びその制御方法、プログラム
JP5342806B2 (ja) * 2008-05-20 2013-11-13 シャープ株式会社 表示方法および表示装置
KR101624218B1 (ko) * 2009-09-14 2016-05-25 삼성전자주식회사 디지털 촬영 장치 및 그 제어 방법
JP5323010B2 (ja) * 2010-07-05 2013-10-23 レノボ・シンガポール・プライベート・リミテッド 情報入力装置、その画面配置方法、およびコンピュータが実行可能なプログラム
WO2012077273A1 (ja) * 2010-12-07 2012-06-14 パナソニック株式会社 電子機器
KR20140021893A (ko) * 2012-08-13 2014-02-21 삼성전자주식회사 터치 영역을 볼 수 있도록 디스플레이하는 전자 장치 및 방법
JP6015866B2 (ja) * 2013-10-25 2016-10-26 株式会社村田製作所 携帯端末用表示装置
EP3079340B1 (en) * 2013-12-03 2019-03-06 Huawei Technologies Co., Ltd. Processing method and apparatus, and terminal
CN104717349A (zh) * 2013-12-13 2015-06-17 中兴通讯股份有限公司 一种终端用户界面的显示方法及终端
US20150192989A1 (en) * 2014-01-07 2015-07-09 Samsung Electronics Co., Ltd. Electronic device and method of controlling electronic device
CN103744582B (zh) * 2014-01-21 2017-06-20 宇龙计算机通信科技(深圳)有限公司 终端操控装置和终端操控方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009064209A (ja) * 2007-09-06 2009-03-26 Sharp Corp 情報表示装置
JP2013020532A (ja) * 2011-07-13 2013-01-31 Jvc Kenwood Corp タッチパネル操作装置、タッチパネル操作装置の制御方法およびプログラム
JP2013105496A (ja) * 2011-11-11 2013-05-30 Samsung Electronics Co Ltd 携帯用機器のタッチ入力方法及び装置
JP2015076045A (ja) * 2013-10-11 2015-04-20 Necパーソナルコンピュータ株式会社 情報処理装置、方法及びプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023001310A (ja) * 2021-02-03 2023-01-04 マクセル株式会社 携帯端末
JP7416894B2 (ja) 2021-02-03 2024-01-17 マクセル株式会社 携帯端末

Also Published As

Publication number Publication date
US20180203602A1 (en) 2018-07-19
JPWO2017022031A1 (ja) 2018-02-22
CN107924274A (zh) 2018-04-17

Similar Documents

Publication Publication Date Title
US11461004B2 (en) User interface supporting one-handed operation and terminal supporting the same
US10521111B2 (en) Electronic apparatus and method for displaying a plurality of images in a plurality of areas of a display
EP3617861A1 (en) Method of displaying graphic user interface and electronic device
JP5759660B2 (ja) タッチ・スクリーンを備える携帯式情報端末および入力方法
US8866776B2 (en) Information processing device adapted to receiving an input for user control using a touch pad and information processing method thereof
CN114930289A (zh) 一种微件处理方法以及相关装置
US20130342456A1 (en) Remote control apparatus and control method thereof
US20110265021A1 (en) Touchpad controlling method and touch device using such method
US20120299846A1 (en) Electronic apparatus and operation support method
TW201421350A (zh) 於外部顯示裝置上顯示觸控裝置之畫面的方法
WO2017022031A1 (ja) 情報端末装置
KR20140074141A (ko) 단말에서 애플리케이션 실행 윈도우 표시 방법 및 이를 위한 단말
US10635227B2 (en) Image display device
US20150033175A1 (en) Portable device
EP2998838B1 (en) Display apparatus and method for controlling the same
WO2014112029A1 (ja) 情報処理装置、情報処理方法、及び、プログラム
KR20140100791A (ko) 사용자 단말 및 이의 인터페이싱 방법
JPWO2010047339A1 (ja) 検知領域がディスプレイの表示領域よりも小さくても同等時のように動作するタッチパネル装置
JP5991320B2 (ja) 入力装置、画像表示方法およびプログラム
JP2014016743A (ja) 情報処理装置、情報処理装置の制御方法、および情報処理装置の制御プログラム
CN108509138B (zh) 一种任务栏按钮显示的方法及其终端
WO2013047023A1 (ja) 表示装置、表示方法およびプログラム
KR101920864B1 (ko) 터치스크린을 이용하여 이미지를 표시하기 위한 방법 및 단말
JP2022167480A (ja) 情報処理装置及び制御方法
JP5801282B2 (ja) 電子機器、操作支援方法及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15900345

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017532265

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 15744045

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15900345

Country of ref document: EP

Kind code of ref document: A1