JP6241356B2 - 電子機器及び情報表示プログラム - Google Patents

電子機器及び情報表示プログラム Download PDF

Info

Publication number
JP6241356B2
JP6241356B2 JP2014079479A JP2014079479A JP6241356B2 JP 6241356 B2 JP6241356 B2 JP 6241356B2 JP 2014079479 A JP2014079479 A JP 2014079479A JP 2014079479 A JP2014079479 A JP 2014079479A JP 6241356 B2 JP6241356 B2 JP 6241356B2
Authority
JP
Japan
Prior art keywords
touch position
display
display window
enlarged display
size
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014079479A
Other languages
English (en)
Other versions
JP2015201039A (ja
Inventor
英昭 條
英昭 條
太一 野呂
太一 野呂
浩輝 山田
浩輝 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2014079479A priority Critical patent/JP6241356B2/ja
Priority to EP15161564.8A priority patent/EP2930600B1/en
Priority to US14/675,130 priority patent/US9678646B2/en
Publication of JP2015201039A publication Critical patent/JP2015201039A/ja
Application granted granted Critical
Publication of JP6241356B2 publication Critical patent/JP6241356B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04805Virtual magnifying lens, i.e. window or frame movable on top of displayed information to enlarge it for better reading or selection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Position Input By Displaying (AREA)
  • Digital Computer Display Output (AREA)

Description

本発明は、電子機器及び情報表示プログラムに関する。
近年、パネルに対するタッチ入力で各種操作を実行することができるタッチパネル式の電子機器が普及している。タッチパネル式の電子機器としては、例えば、携帯電話端末、スマートフォン、タブレット端末、電子書籍端末、パーソナルコンピュータ(Personal Computer、PC)など様々なものが挙げられる。
パネルに対する操作の一つとして、表示された画像に含まれる文字を選択する操作がある。文字を選択する際、文字が小さくて選択しづらい場合や、選択箇所が指に隠れてわかりづらい場合がある。これに対し、選択箇所を別領域に拡大表示する技術が知られている(例えば、特許文献1参照)。
特表2012−521048号公報
しかしながら、従来は、選択箇所を拡大表示するための拡大表示ウィンドウ(以下、拡大鏡ともいう)は、大きさが固定され、指の移動に合わせて移動するため、選択箇所全体を俯瞰して確認するのが困難であった。
本発明の一態様は、より多くの表示対象領域を拡大表示ウィンドウに表示することができる電子機器及び情報表示プログラムを提供することを目的とする。
本発明の態様の一つは、電子機器によって例示される。本電子機器は、
第一のタッチ位置を含む領域を拡大表示した拡大表示ウィンドウを表示する拡大表示ウィンドウ表示部と、
前記第一のタッチ位置から第二のタッチ位置にタッチ位置が移動した場合に、前記第一のタッチ位置と前記第二のタッチ位置に基づいて前記拡大表示ウィンドウのサイズを広げる拡大表示ウィンドウサイズ変更部と、
前記拡大表示ウィンドウのサイズに応じて、前記第二のタッチ位置を含む表示対象領域を決定し、前記表示対象領域を拡大表示ウィンドウに表示する表示対象領域決定部と、
を備える。
本発明の他の態様は、コンピュータを上述した電子機器として機能させる情報表示プログラム、及び当該プログラムを記録したコンピュータ読み取り可能な記録媒体を含むことができる。コンピュータ等が読み取り可能な記録媒体には、データやプログラム等の情報を電気的、磁気的、光学的、機械的、または化学的作用によって蓄積し、コンピュータ等から読み取ることができる記録媒体をいう。
開示の電子機器及び情報表示プログラムによれば、より多くの表示対象領域を拡大表示ウィンドウに表示することができる。
電子機器のハードウェア構成の一例を示す図である。 電子機器の機能ブロックの一例を示す図である。 設定メニュー画面の選択動作中における拡大鏡の表示例を示す図である。 設定メニュー画面の選択動作中における拡大鏡の表示例を示す図である。 設定メニュー画面の選択動作中における拡大鏡の表示例を示す図である。 拡大鏡が、画面の最上部に表示された例を示す図である。 拡大鏡が選択された文字と重なり、表示部の最上部に表示された例を示す図である。 画面にタッチした指を下方向に移動する前の拡大鏡の表示例を示す図である。 画面にタッチした指を下方向に移動した後の拡大鏡の表示例を示す図である。 文字選択動作中の拡大鏡の表示例を示す図である。 文字選択動作中の拡大鏡の表示例を示す図である。 文字選択動作中の拡大鏡の表示例を示す図である。 画面をタッチした時の拡大鏡の表示位置及び表示サイズの算出例を示す図である。 タッチイベント検知時の処理のフローチャートの一例を示す図である。 タッチイベント検知時に、表示対象領域を決定し拡大鏡に表示する処理のフローチャートの一例を示す図である。 移動後のタッチ位置及び拡大表示の倍率から表示対象領域を決定する例を示す図である。 移動後のタッチ位置及び拡大表示の倍率から表示対象領域を決定する具体例を示す図である。
以下、図面に基づいて、本発明の実施の形態を説明する。以下の実施形態の構成は例示であり、本発明は実施形態の構成に限定されない。
[実施例1]
実施例1は、電子機器が、タッチ位置を含む領域を拡大鏡に拡大表示し、タッチ位置の移動に応じて拡大鏡のサイズを広げる例である。
図3Aから図3Cは、設定メニュー画面の選択動作中における拡大鏡の表示例を示す図である。図3Aから図3Cには、それぞれスマートフォンの設定メニュー画面の例が示されている。
図3Aは、メニュー項目の一つである「Miracast」の「M」の文字がタッチされた後の状態を示す。a1は、設定メニュー画面に表示された拡大鏡を示している。b1の点線で囲まれた部分は、ユーザによりタッチされた位置を示している。b2の点線で囲まれた部分は、拡大鏡a1において、b1で示されるタッチ位置に対応する部分を示している。なお、電子機器は、タッチ位置が分かりやすいようにするため、例えば、b1及びb2の点線を枠とした、蛍光ペンをイメージしたマーカーを表示してもよい。即ち、実際のスマートフォンの画面上において、b1及びb2の点線で囲まれた部分は、背景色を周囲と変えることにより表示してもよい。拡大鏡a1は、b1の点線で囲まれた部分の上部に表示される。拡大鏡a1は、b1で示されるタッチ位置を含む「Miracast」の文字及びその周囲の領域を拡大表示している。
図3Bは、図3Aにおいて「Miracast」の「M」の文字がタッチされた状態から、指を離すことなく「その他」のメニュー項目まで下方向に移動した後の状態を示す。a2は、設定メニュー画面に表示された拡大鏡を示している。b3の点線で囲まれた部分は、「Miracast」の「M」の文字がタッチされた状態から、指を離すことなく「その他」のメニュー項目まで下方向に移動したときの指の軌跡を示している。b4の点線で囲まれた部分は、拡大鏡a2において、b3で示される指の軌跡に対応する部分を示している。なお、電子機器は、指でなぞった軌跡が分かりやすいようにするため、例えば、b3及びb4の点線を枠とした、蛍光ペンをイメージしたマーカーを表示してもよい。即ち、実際のスマートフォンの画面上において、b3及びb4の点線で囲まれた部分は、背景色を周囲と変えることにより表示してもよい。拡大鏡a2は、移動後の指の位置の上部まで、下方向に拡大されている。拡大鏡a2は、移動後の指の位置及びその上部の領域を拡大表示している。
図3Cは、図3Bにおいて「その他」のメニュー項目まで下方向に移動した後、指を離すことなくメニュータイトルである「設定」の文字まで上方向に移動した後の状態を示す。a3は、設定メニュー画面に表示された拡大鏡を示している。b5の点線で囲まれた部分は、図3Aの状態から図3Bの状態を経て、指を離すことなくメニュータイトルである「設定」の文字まで上方向に移動したときの指の軌跡を示している。b6の点線で囲まれた部分は、拡大鏡a3において、スマートフォンの画面上の指の軌跡に対応する部分を示している。ただし、b6の点線で囲まれた部分に対応する指の軌跡は、拡大鏡a3の下に位置するため図示されていない。拡大鏡a3は、「設定」の文字及びその周囲の領域を拡大表示している。なお、電子機器は、指でなぞった軌跡が分かりやすいようにするため、例えば、b5及びb6の点線を枠とした、蛍光ペンをイメージしたマーカーを表示してもよい。即ち、実際のスマートフォンの画面上において、b5及びb6の点線で囲まれた部分は、背景色を周囲と変えることにより表示してもよい。
図3Cの例では、指を上方向に移動した場合、文章が通常下方向に読まれることが考慮されており、電子機器は、移動前のタッチ位置から上方向に拡大鏡のサイズを広げていない。ただし、電子機器は、指を上方向に移動した場合でも、画面の表示内容によっては、拡大鏡のサイズを広げてもよい。また、図3Aから図3Cでは、拡大鏡の横幅が一定である例を示したが、図3Aにおける拡大鏡の横幅のサイズが画面の横幅のサイズより小さい状態から、画面の横幅のサイズに広げてもよい。即ち、実施例1において、拡大鏡の横幅のサイズは一定でなくてもよい。
図4Aは、拡大鏡が、画面の最上部に表示された例を示す図である。具体的には、図4Aは、「今日はいい天気です。」という文章中、「いい」と「天気」の間を指でタッチした状態を示す。拡大鏡は、タッチ位置の上部に表示され、タッチ位置の前後の文字を拡大表示している。図4Bは、拡大鏡が選択された文字と重なり、表示部の最上部に表示された例を示す図である。図4Bは、図4Aと同じく「今日はいい天気です。」という文章中、「いい」と「天気」の間を指でタッチした状態を示す。ただし、「今日はいい天気です。」という文章は、画面の最上部に近い位置に表示されている。拡大鏡は、タッチ位置の上部に表示するための領域が確保できないため、選択された文字と重なった状態で表示される。このように、拡大鏡は、画面の最上部まで移動すると、更に上に移動したり消滅したりすることなく、所定のサイズを維持した状態で、画面最上部に表示される。
<ハードウェア構成>
図1は、電子機器1のハードウェア構成の一例を示す図である。電子機器1は、プロセッサ2、記憶部3、タッチセンサ部4、表示部5、無線部6、オーディオ入出力部7を備える。
プロセッサ2は、例えば、CPU(Central Processing Unit)や、DSP(Digital Signal Processor)である。記憶部3は、ROM(Read Only Memory)31及びRAM(Random Access Memory)32を含む。ROM31は、各種コンピュータプログラムや、各
コンピュータプログラムの実行に際してプロセッサ2が使用するデータを格納する。RAM32には、揮発性のものと不揮発性のものと、双方が含まれる。RAM32は、ROM31に格納されているコンピュータプログラムをロードする記憶領域および作業領域をプロセッサ2に提供する。またRAM32は、データを一時的に保持するためのバッファとして用いられる。
タッチセンサ部4は、位置入力装置の1つであって、表示部5がタッチされたことを検知すると、画面上の指の接触位置の座標を取得し、プロセッサ2に出力する。タッチセンサ部4は、抵抗膜方式、表面弾性波方式、赤外線方式、電磁誘導方式、静電容量方式等のいずれの方式のものでも良い。
表示部5は、例えば、液晶ディスプレイ(Liquid Crystal Display、LCD)である。表示部5は、プロセッサ2から入力される信号に従って、画面データを表示する。
無線部105は、アンテナを通じて受信した無線信号を電気信号に変換してプロセッサ2に出力したり、プロセッサ2から入力される電気信号を無線信号に変換してアンテナを通じて送信したりする。無線部105は、例えば、第3世代移動通信システムに対応する電子回路である。
オーディオ入出力部7は、マイクロフォン等の音声入力装置から入力された音声信号を電気信号に変換してプロセッサ2に出力したり、プロセッサ2から入力された電気信号を音声信号に変換してスピーカー等の音声出力装置に出力したりする。
なお、電子機器1のハードウェア構成は、図1に示されるものに限定されず、適宜、追加、置換、削除等の変更が可能である。電子機器1は、例えば、携帯電話端末、スマートフォン、タブレット端末、電子書籍端末、PCである。
<機能ブロック>
図2は、電子機器1の機能ブロックの一例を示す図である。電子機器1は、機能ブロックとして、拡大表示ウィンドウ表示部10、拡大表示ウィンドウサイズ変更部11、表示対象領域決定部12を含む。プロセッサ2は、拡大表示ウィンドウ表示部10、拡大表示ウィンドウサイズ変更部11、表示対象領域決定部12として、記憶部3に実行可能に展開されたコンピュータプログラムを実行する。ただし、拡大表示ウィンドウ表示部10、拡大表示ウィンドウサイズ変更部11、表示対象領域決定部12のいずれか、またはその処理の一部がハードウェア回路により実行されてもよい。
拡大表示ウィンドウ表示部10は、表示部5がタッチされたことを検知し、タッチ位置の上部に拡大鏡を表示する。拡大鏡の横幅は、表示部5の幅とサイズと同じであってもよく、表示部5の幅のサイズより小さくてもよい。拡大鏡の縦幅は、所定のサイズを初期値としてあらかじめ定めておいてもよい。拡大表示ウィンドウ表示部10は、タッチ位置の前後の領域の内容を、拡大鏡に拡大表示する。なお、タッチ位置の上部に拡大鏡を表示する領域が確保できない場合には、電子機器1は、タッチ位置に重ねて拡大鏡を表示してもよい。
拡大表示ウィンドウサイズ変更部11は、タッチ位置の移動を検知し、拡大鏡のサイズを変更する。拡大表示ウィンドウサイズ変更部11は、例えば、タッチ位置が下方向へ移動した場合、指の移動前に拡大表示ウィンドウ表示部10により表示された拡大鏡の縦幅
を、移動後のタッチ位置の上部まで広げる。また、拡大表示ウィンドウサイズ変更部12は、拡大鏡の横幅を、画面の横幅のサイズまで広げてもよい。一方、タッチ位置が上方向に移動した場合、拡大表示ウィンドウサイズ変更部11は、拡大鏡のサイズを広げることなく、移動後のタッチ位置を含み、縦幅が初期値である拡大鏡を表示してもよい。
表示対象領域決定部12は、拡大鏡のサイズに応じて、移動後のタッチ位置を含む表示対象領域を決定し、拡大表示ウィンドウに表示する。表示対象領域決定部12は、例えば、移動後のタッチ位置を含み、拡大鏡に表示し得る範囲の領域を、表示対象領域として決定してもよい。移動前のタッチ位置は第一のタッチ位置の一例である。さらに、移動後のタッチ位置は第二のタッチ位置の一例である。
<動作例>
図7は、電子機器1の拡大鏡の表示位置及び表示サイズの算出例を示す図である。図7において、電子機器1の画面の左上の座標は(0,0)である。また、横方向(X軸方向)右向き、及び縦方向(Y軸方向)下向きが正の向きである。指が電子機器1の画面をタッチすると、タッチされた指の位置の座標(x,y)がタッチパネルに通知される。図7において、指が電子機器1の画面をタッチした位置は、座標(x1,y1)で示される。“a”は拡大鏡の横幅のサイズ、“b”は拡大鏡の縦幅のサイズの初期値、“c”は、拡大鏡下端から指までの距離を示す。図7の例では、拡大鏡の横幅は画面幅であるものとする。電子機器1は、画面がタッチされると、右下の座標(x3,y3)=(a,y1−c)、左上の座標(x2,y2)=(0,y1−b−c)の位置に、横サイズ“a”、縦サイズ“b”の拡大鏡を表示する。
図8は、タッチイベント検知時の処理のフローチャートの一例を示す図である。タッチイベントは、電子機器1の画面に対するタッチ操作を検知した時に発生する。タッチイベントは、例えば、指が画面にタッチされた時に発生するdownイベント、タッチした指が移動した時に発生するmoveイベント、指が画面から離れたときに発生するupイベントを含む。タッチイベント検知時の処理は、例えば、電子機器1において、表示部5をタッチし、拡大表示ウィンドウ表示部10により拡大鏡が表示されることにより開始する。
S01では、電子機器1は、表示部5が指でタッチされたことを検知すると、S02に処理を移す。S02では、電子機器1は、タッチされた位置の座標(x1,y1)を、起点の座標として記憶部3に記憶し、S03に処理を移す。S03では、電子機器1は、タッチイベントを検知し、タッチイベント発生時のタッチ位置の座標(x,y)を記憶部3に記憶し、S04に処理を移す。S04では、電子機器1は、検知したタッチイベントがmoveイベントか否かを判断し、moveイベントであればS05に処理を移し、moveイベントでなければS08に処理を移す。
S05では、電子機器1は、起点のY座標“y1”と移動後の指の位置のY座標“y”を比較し、“y1>y”であればS06に処理を移し、“y1≦y”であればS07に処理を移す。S06は、“y1>y”即ちタッチした起点よりも上方向に指を移動した場合の処理である。S06では、電子機器1は、拡大表示ウィンドウサイズ変更部11により、拡大表示ウィンドウのサイズを、左上の座標(0,y−b−c)及び右下の座標(x3,y−c)で囲まれた領域のサイズとする。電子機器1は、表示対象領域決定部12により、決定された表示対象領域を拡大鏡に拡大表示する。S07は、“y1≦y”即ちタッチした起点よりも下方向に指を移動した場合の処理である。S07では、電子機器1は、拡大表示ウィンドウサイズ変更部11により、拡大表示ウィンドウのサイズを、左上の座標(x2,y2)及び右下の座標(x3,y−c)で囲まれた領域のサイズとする。電子機器1は、表示対象領域決定部12により、決定された表示対象領域を拡大鏡に拡大表示
する。S06又はS07で拡大鏡が表示された後、電子機器1は、S03に処理を戻す。
S08は、S04でmoveイベントではないと判断された場合の処理である。S08では、電子機器1は、検知したタッチイベントがupイベントか否かを判断し、upイベントであればS09に処理を移し、upイベントでなければS03に処理を戻す。S09では、電子機器1は、拡大鏡を非表示とし、タッチイベント検知時の処理を終了する。電子機器1は、拡大表示ウィンドウのサイズを広げることの一例として、S06及びS07の処理を実行する。
実施例1に係る電子機器1は、タッチ位置の移動に応じて拡大鏡のサイズを動的に広げる。このため、タッチ位置を含む固定サイズの領域だけでなく、移動後のタッチ位置を含むより多くの領域が表示対象領域として、サイズが広げられた拡大鏡に表示される。したがって、タッチ位置を含むより多くの領域を俯瞰することが容易となる。また、電子機器1は、コピーや貼り付け等の編集を前提とした画像の他、編集を前提としないメニュー画面等においても、拡大鏡を表示することができる。このため、編集を前提としないメニュー画面等においても、文字が小さく選択箇所が指に隠れてわかりづらい場合には、タッチ位置を含む領域を容易に確認することができる。
[実施例2]
実施例2は、拡大鏡の横幅を一定とし、縦方向にサイズを広げる例である。図5Aは、画面にタッチした指を下方向に移動する前の拡大鏡の表示例を示す図である。具体的には、図5Aは、「今日はいい天気です。」という文章の左端をタッチした後、指を「いい」と「天気」の間まで右方向に移動した状態を示す。図5Aにおいて、拡大鏡の横幅は、画面の横幅と同じとなっている。図5Bは、画面にタッチした指を下方向に移動した後の拡大鏡の表示例を示す図である。具体的には、図5Bは、図5Aの状態の後、二行下の「明日は雨です。」という文章中の「雨」と「です」の間まで、指を下方向に移動した後の状態を示す。このとき、拡大鏡は、横幅のサイズは一定のまま、下方向にサイズが広げられている。
実施例2における、ハードウェア構成及び機能ブロックは、実施例1と同一であるため、その説明を省略する。また、実施例2における動作例は、拡大鏡の横幅のサイズが一定である点以外は、実施例1と同様であるため、その説明を省略する。
実施例2に係る電子機器1は、拡大鏡の横幅を一定とし、縦方向にのみサイズを広げるため、拡大鏡は横方向に移動しない。指の移動により、拡大鏡に表示される内容が変更されても、横幅が固定されているため読みやすいという利点がある。
[実施例3]
実施例3は、移動後のタッチ位置及び拡大表示の倍率に基づいて、表示対象領域を決定する例である。図6Aから図6Cは、文字選択動作中の拡大鏡の表示例を示す図である。
図6Aは、「今日はいい天気です。でも、明日は雨です。」という文章の左端をタッチした後、指を「いい」と「天気」の間まで右方向に移動した状態を示す。このとき、拡大鏡には、「いい天気です。でも、」の文字が表示されており、タッチ位置に対応する位置(「いい」と「天気」の間)のX座標は、タッチ位置のX座標と等しい。図6Bは、図6Aの状態の後、指を「天気です。」と「でも」の間まで、更に右方向に指を移動した後の状態を示す。このとき、拡大鏡には、「天気です。でも、明日」の文字が表示されており、タッチ位置に対応する位置(「天気です。」と「でも」の間)のX座標は、タッチ位置のX座標と等しい。図6Cは、図6Bの状態の後、指を文章の右端の「雨です。」まで、更に右方向に移動した後の状態を示す。このとき、拡大鏡には、「でも、明日は雨です」
の文字が表示されており、タッチ位置に対応する位置(「雨です。」の右側)のX座標は、タッチ位置のX座標と等しい。
図6Aから図6Cに示す表示対象領域は、表示対象領域決定部12により決定される。具体的には、表示対象領域決定部12は、拡大表示の倍率及び拡大表示ウィンドウの横幅のサイズから、表示対象領域の幅を算出する。次に、表示対象領域決定部12は、画面の左端からタッチ位置までの距離とタッチ位置から画面の右端までの距離の比と同じ比率で、表示対象領域の幅を分割し、表示対象領域の左端からタッチ位置までの距離と、タッチ位置から表示対象領域の右端までの距離を算出する。表示対象領域決定部12は、表示対象領域の左端からタッチ位置までの距離を、タッチ位置のX座標から減算することにより、表示対象領域の左端のX座標を決定する。また、表示対象領域決定部12は、タッチ位置から表示対象領域の右端までの距離を、タッチ位置のX座標に加算することにより、表示対象領域の右端のX座標を決定する。このように、移動後のタッチ位置及び拡大表示の倍率から表示対象領域を決定することで、拡大鏡への表示内容は、タッチ位置の移動に伴って移動する。
図10は、移動後のタッチ位置及び拡大表示の倍率から表示対象領域を決定する例を示す図である。図10は、「abcdefghijk」の文字列中、「e」と「f」の間を指でタッチした状態を示す。拡大鏡は、タッチ位置の上部に表示され、「cdefghi」の文字を拡大表示している。aを拡大鏡の横幅のサイズ、拡大倍率を1.5とすると、タッチ位置を含み、横幅がa/1.5の領域が、表示対象領域として拡大鏡に表示されている。
図11は、移動後のタッチ位置及び拡大表示の倍率から表示対象領域を決定する具体例を示す図である。図11は、「abcdefghijk」の文字列中、「i」の文字を指でタッチした状態を示す。拡大鏡は、タッチ位置の上部に表示され、「cdefghij」の文字を拡大表示している。拡大鏡の横幅のサイズ a=15、タッチ位置X座標 x=11、拡大倍率 N=1.5とすると、表示対象領域の左端のX座標及び右端のX座標は
、以下の計算で求められる。
左端のX座標: (a/N)×x/a=(15/1.5)×11/15=7.3
x−7.3=11−7.3=3.7
右端のX座標: (a/N)−7.3=10−7.3=2.7
x+2.7=11+2.7=13.7
つまり、X座標が3.7から13.7の間が、表示対象領域の横方向の範囲となる。表示対象領域の縦方向の範囲は、例えば、(拡大鏡の縦幅のサイズ)/Nの幅で、タッチ位置を含むように決定すればよい。
実施例3における、ハードウェア構成及び機能ブロックは、実施例1と同一であるため、その説明を省略する。また、図9に示す表示対象領域を決定し拡大鏡に表示する処理以外の処理は、実施例1と同一であるため、その説明を省略する。
<動作例>
図9は、タッチイベント検知時に、表示対象領域を決定し拡大鏡に表示する処理のフローチャートの一例を示す図である。表示対象領域を決定し拡大鏡に表示する処理は、例えば、電子機器1において、表示部5をタッチすることにより開始する。ここで、“a”は拡大鏡の横幅のサイズ、“b”は拡大鏡の縦幅のサイズの初期値、“x”はタッチ位置のX座標、“y” はタッチ位置のY座標、拡大倍率はN倍とする。ただし、図9の例では
、N=1.5の場合を説明するが、拡大倍率が1.5に限定される訳ではない。
S11では、電子機器1は、タッチイベントを検知し、S12に処理を移す。S11で
は、タッチイベントとして、downイベント及びmoveイベントが検知される。
S12では、電子機器1は、以下の座標で囲まれる領域の表示内容(ビットマップイメージ)を、表示対象領域として取得し、S13に処理を移す。
左端のX座標: x0 = x−(a×N)×x/a
右端のX座標: x1 = x0+(a×N)
左端のY座標: y0 = y−b
右端のY座標: y1 = y+b
S13では、電子機器1は、S12で取得したビットマップイメージを、縦方向及び横方向にN倍に拡大し、S14に処理を移す。S14では、電子機器1は、S13で拡大したビットマップイメージを拡大鏡の表示位置に表示し、処理を終了する。電子機器1は、表示対象領域を拡大表示ウィンドウに表示することの一例として、S12及びS13の処理を実行する。
実施例3に係る電子機器1は、移動後のタッチ位置及び拡大表示の倍率に基づいて、拡大鏡に表示する内容を変更する。タッチ位置の移動に伴って、拡大鏡への表示内容が移動していくため、指を移動しても違和感なく読むことができる。
1 電子機器
2 プロセッサ
3 記憶部
31 ROM
32 RAM
4 タッチセンサ部
5 表示部
6 無線部
7 オーディオ入出力部
10 拡大表示ウィンドウ表示部
11 拡大表示ウィンドウサイズ変更部
12 表示対象領域決定部

Claims (5)

  1. 第一のタッチ位置を含む領域を拡大表示した拡大表示ウィンドウを表示する拡大表示ウィンドウ表示部と、
    前記第一のタッチ位置から第二のタッチ位置にタッチ位置が移動した場合に、前記第一のタッチ位置と前記第二のタッチ位置に基づいて前記拡大表示ウィンドウのサイズを広げる拡大表示ウィンドウサイズ変更部と、
    前記拡大表示ウィンドウのサイズに応じて、前記第二のタッチ位置を含む表示対象領域を決定し、前記表示対象領域を拡大表示ウィンドウに表示する表示対象領域決定部と、
    を備える電子機器。
  2. 前記拡大表示ウィンドウサイズ変更部は、前記拡大表示ウィンドウの横幅を一定とし、縦方向のサイズを広げることを特徴とする、
    請求項1に記載の電子機器。
  3. 前記表示対象領域決定部は、前記第二のタッチ位置を拡大表示ウィンドウの所定位置に対応付け、所定倍率で拡大表示ウィンドウに表示可能な範囲で前記表示対象領域を決定することを特徴とする、
    請求項1又は2に記載の電子機器。
  4. 前記拡大表示ウィンドウの所定位置の横方向の画面上座標は、前記タッチ位置の横方向の画面上座標と一致していることを特徴とする請求項3に記載の電子機器。
  5. コンピュータに、
    第一のタッチ位置を含む領域を拡大表示した拡大表示ウィンドウを表示し、
    前記第一のタッチ位置から第二のタッチ位置にタッチ位置が移動した場合に、前記第一のタッチ位置と前記第二のタッチ位置に基づいて前記拡大表示ウィンドウのサイズを広げ、
    前記拡大表示ウィンドウのサイズに応じて、前記第二のタッチ位置を含む表示対象領域を決定し、前記表示対象領域を前記拡大表示ウィンドウに表示する、
    ことを実行させるための情報表示プログラム。
JP2014079479A 2014-04-08 2014-04-08 電子機器及び情報表示プログラム Expired - Fee Related JP6241356B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2014079479A JP6241356B2 (ja) 2014-04-08 2014-04-08 電子機器及び情報表示プログラム
EP15161564.8A EP2930600B1 (en) 2014-04-08 2015-03-30 Electronic device and information display program
US14/675,130 US9678646B2 (en) 2014-04-08 2015-03-31 Electronic device and computer-readable recording medium storing information display program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014079479A JP6241356B2 (ja) 2014-04-08 2014-04-08 電子機器及び情報表示プログラム

Publications (2)

Publication Number Publication Date
JP2015201039A JP2015201039A (ja) 2015-11-12
JP6241356B2 true JP6241356B2 (ja) 2017-12-06

Family

ID=52824039

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014079479A Expired - Fee Related JP6241356B2 (ja) 2014-04-08 2014-04-08 電子機器及び情報表示プログラム

Country Status (3)

Country Link
US (1) US9678646B2 (ja)
EP (1) EP2930600B1 (ja)
JP (1) JP6241356B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102324083B1 (ko) * 2014-09-01 2021-11-09 삼성전자주식회사 화면 확대 제공 방법 및 그 전자 장치
US10275436B2 (en) * 2015-06-01 2019-04-30 Apple Inc. Zoom enhancements to facilitate the use of touch screen devices
CN112584280B (zh) * 2019-09-27 2022-11-29 百度在线网络技术(北京)有限公司 智能设备的控制方法、装置、设备和介质
CN114185628B (zh) * 2021-11-19 2024-04-12 北京奇艺世纪科技有限公司 iOS系统的图片调节方法、装置、设备及计算机可读介质

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004051392A2 (en) * 2002-11-29 2004-06-17 Koninklijke Philips Electronics N.V. User interface with displaced representation of touch area
DE10310794B4 (de) * 2003-03-12 2012-10-18 Hewlett-Packard Development Co., L.P. Bedieneinrichtung und Kommunikationsgerät
US7743348B2 (en) * 2004-06-30 2010-06-22 Microsoft Corporation Using physical objects to adjust attributes of an interactive display application
US20080238947A1 (en) * 2007-03-27 2008-10-02 Keahey T Alan System and method for non-linear magnification of images
JP5001182B2 (ja) * 2008-01-10 2012-08-15 パナソニック株式会社 表示制御装置、電子機器、表示制御方法、およびプログラム
US8255830B2 (en) 2009-03-16 2012-08-28 Apple Inc. Methods and graphical user interfaces for editing on a multifunction device with a touch screen display
JP2011165023A (ja) * 2010-02-12 2011-08-25 Panasonic Corp 入力装置
US20110289462A1 (en) * 2010-05-20 2011-11-24 Microsoft Corporation Computing Device Magnification Gesture
US9323415B2 (en) * 2011-06-29 2016-04-26 Nokia Technologies Oy Apparatus and associated methods related to touch sensitive displays
US9785343B2 (en) * 2011-12-01 2017-10-10 Sony Mobile Communications Inc. Terminal device, image display method, and storage medium
JP5982884B2 (ja) * 2012-03-08 2016-08-31 ソニー株式会社 表示制御装置、表示制御方法およびコンピュータ読み取り可能な記録媒体
KR20140080220A (ko) * 2012-12-20 2014-06-30 삼성전자주식회사 컨텐츠를 확대하기 위한 방법 및 그 전자 장치
JP6009584B2 (ja) * 2012-12-26 2016-10-19 グリー株式会社 表示処理方法及び情報装置

Also Published As

Publication number Publication date
US20150286378A1 (en) 2015-10-08
EP2930600A3 (en) 2015-10-28
EP2930600B1 (en) 2018-04-04
JP2015201039A (ja) 2015-11-12
EP2930600A2 (en) 2015-10-14
US9678646B2 (en) 2017-06-13

Similar Documents

Publication Publication Date Title
US9164658B2 (en) Flexible selection tool for mobile devices
JP6369704B2 (ja) 情報処理装置、プログラム及び情報処理方法
US10534524B2 (en) Method and device for controlling reproduction speed of multimedia content
JP5703873B2 (ja) 情報処理装置、情報処理方法およびプログラム
CN111580723B (zh) 用户终端装置及其显示方法
US9851898B2 (en) Method for changing display range and electronic device thereof
JP6159078B2 (ja) 装置、方法、及びプログラム
US9104262B2 (en) Methods for displaying and moving data and systems using the same
US9891805B2 (en) Mobile terminal, and user interface control program and method
KR102304178B1 (ko) 사용자 단말 장치 및 이의 디스플레이 방법
EP2613244A2 (en) Apparatus and method for displaying screen on portable device having flexible display
JP6050784B2 (ja) 電子機器及び制御プログラム並びに電子機器の動作方法
US9400599B2 (en) Method for changing object position and electronic device thereof
US20150193112A1 (en) User interface device, user interface method, and program
JP5806822B2 (ja) 携帯電子機器、接触操作制御方法および接触操作制御プログラム
US20150212724A1 (en) Manipulation input device, manipulation input method, manipulation input program, and electronic apparatus
JP6032702B2 (ja) タッチスクリーンを具備する電子機器における画面拡大装置及び方法
US9658714B2 (en) Electronic device, non-transitory storage medium, and control method for electronic device
JP6241356B2 (ja) 電子機器及び情報表示プログラム
JP2011022961A (ja) 入力制御装置
JP2012208614A (ja) 携帯電子機器
JP6284459B2 (ja) 端末装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170110

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170929

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171010

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171023

R150 Certificate of patent or registration of utility model

Ref document number: 6241356

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees