JP2019074773A - 表示装置、表示制御方法、及び表示制御プログラム - Google Patents

表示装置、表示制御方法、及び表示制御プログラム Download PDF

Info

Publication number
JP2019074773A
JP2019074773A JP2017198210A JP2017198210A JP2019074773A JP 2019074773 A JP2019074773 A JP 2019074773A JP 2017198210 A JP2017198210 A JP 2017198210A JP 2017198210 A JP2017198210 A JP 2017198210A JP 2019074773 A JP2019074773 A JP 2019074773A
Authority
JP
Japan
Prior art keywords
screen
unit
display
input unit
block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017198210A
Other languages
English (en)
Other versions
JP6930787B2 (ja
Inventor
諭 高橋
Satoshi Takahashi
諭 高橋
鉄也 村田
Tetsuya Murata
鉄也 村田
敬功 原田
Keiko Harada
敬功 原田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Connected Technologies Ltd
Original Assignee
Fujitsu Connected Technologies Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Connected Technologies Ltd filed Critical Fujitsu Connected Technologies Ltd
Priority to JP2017198210A priority Critical patent/JP6930787B2/ja
Priority to US16/155,075 priority patent/US20190114050A1/en
Publication of JP2019074773A publication Critical patent/JP2019074773A/ja
Application granted granted Critical
Publication of JP6930787B2 publication Critical patent/JP6930787B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0489Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using dedicated keyboard keys or combinations thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72445User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality for supporting Internet browser applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72469User interfaces specially adapted for cordless or mobile telephones for operating the device by selecting functions from two or more displayed items, e.g. menus or icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1636Sensing arrangement for detection of a tap gesture on the housing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/033Indexing scheme relating to G06F3/033
    • G06F2203/0338Fingerprint track pad, i.e. fingerprint sensor used as pointing device tracking the fingertip image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04805Virtual magnifying lens, i.e. window or frame movable on top of displayed information to enlarge it for better reading or selection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/23Construction or mounting of dials or of equivalent devices; Means for facilitating the use thereof
    • H04M1/236Construction or mounting of dials or of equivalent devices; Means for facilitating the use thereof including keys on side or rear faces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/66Substation equipment, e.g. for use by subscribers with means for preventing unauthorised or fraudulent calling
    • H04M1/667Preventing unauthorised calls from a telephone set
    • H04M1/67Preventing unauthorised calls from a telephone set by electronic means

Abstract

【課題】拡大対象範囲を指定する操作性を向上できる表示装置を提供する。【解決手段】表示装置は、二次元の情報の入力を受け付ける入力部と、画面を表示する表示部と、前記画面を二次元に分割した複数のブロックのいずれかが、前記入力部が受け付けた情報の一次元成分に基づいて選択された状態であると判断すると、選択されたブロックを選択されなかった残りのブロックを視認可能な第1拡大率で拡大して前記表示部に表示し、前記選択されたブロックを拡大する決定を検出すると、前記選択されたブロックを前記第1拡大率より大きな第2拡大率で拡大して前記表示部に表示する制御部と、を有する。【選択図】図11

Description

本件は、表示装置、表示制御方法、及び表示制御プログラムに関する。
携帯電話などの表示画面の小さい装置に画像を表示させる場合に、画像の一部を拡大表示する際の操作性を直感的にわかりやすくする技術が提案されている。特に、この技術は画像を分割した部分画像を装置の操作キーと同じ位置関係で配置し、操作キーが操作されると同じ位置関係にある部分画像を拡大表示させている(以上、例えば特許文献1参照)。
特開2003−273971号公報
しかしながら、上述した技術は画像の分割数に対応する複数の操作キーを装置に配置しなければならず、例えば1つの操作キーでは同じ位置関係にない部分画像を拡大表示させることができないという問題がある。
そこで、1つの側面では、拡大対象範囲を指定する操作性を向上できる表示装置、表示制御方法、及び表示制御プログラムを提供することを目的とする。
1つの実施態様では、表示装置は、二次元の情報の入力を受け付ける入力部と、画面を表示する表示部と、前記画面を二次元に分割した複数のブロックのいずれかが、前記入力部が受け付けた情報の一次元成分に基づいて選択された状態であると判断すると、選択されたブロックを選択されなかった残りのブロックを視認可能な第1拡大率で拡大して前記表示部に表示し、前記選択されたブロックを拡大する決定を検出すると、前記選択されたブロックを前記第1拡大率より大きな第2拡大率で拡大して前記表示部に表示する制御部と、を有する。
拡大対象範囲を指定する操作性を向上することができる。
図1(a)は表示装置の正面図の一例である。図1(b)は表示装置の右側面図の一例である。 図2は表示装置のハードウェア構成の一例である。 図3(a)は表示装置の機能ブロック図の一例である。図3(b)は入力部に対する手指の移動例である。 図4は表示装置の動作の一例を示すフローチャートである。 図5(a)〜(e)は画面の一部分を第1拡大率で拡大するまでの操作を説明するための図である。 図6(a)は画面の分割例を説明するための図である。図6(b)は順送り用選択順序情報の一例である。図6(c)は画面の一部分を第1拡大率で拡大した画面例である。 図7(a)は操作例(その1)である。図7(b)は画面遷移例(その1)である。 図8(a)は操作例(その2)である。図8(b)は画面遷移例(その2)である。 図9(a)〜(c)はいずれも順送り用選択順序情報の他の一例である。 図10(a)〜(d)はいずれも逆送り用選択順序情報の一例である。 図11(a)は逆送り用選択順序情報である。図11(b)〜(i)は表示部に表示される画面の一例である。 図12(a)は表示装置の動作の一例を示すフローチャートの一部である。図12(b)は拡大開始位置決定テーブルの一例である。
以下、本件を実施するための形態について図面を参照して説明する。
(第1実施形態)
図1(a)は表示装置100の正面図の一例である。図1(b)は表示装置100の右側面図の一例である。図1(a)及び(b)では、表示装置100の一例としてスマートフォンが示されているが、例えばウェアラブル端末(例えばスマートウォッチなど)、タブレット端末、通信機能を含まない表示端末などが表示装置100であってもよい。
図1(a)及び(b)に示すように、表示装置100は入力部110と表示部120を備えている。入力部110は表示装置100の右側面に設けられており、表示部120は表示装置100の正面に設けられている。尚、入力部110は表示装置100の左側面、天面、底面、背面、正面のいずれかに設けられていてもよい。詳細は後述するが、入力部110は検出対象の接触及び検出対象の二次元の移動を検出することができる。検出対象としては、例えば表示装置100を利用するユーザの手指などが該当するが、検出対象の接触及び検出対象の二次元の移動を検出できれば例えばタッチペンなどであってもよく、ユーザの手指に特に限定されない。一方、表示部120は一部が拡大された画面など、種々の画面を表示する。
以下、図2及び図3を参照して、表示装置100の構成を詳しく説明する。
図2は表示装置100のハードウェア構成の一例である。図2に示すように、表示装置100は、ハードウェアプロセッサとしてのCentral Processing Unit(CPU)100A、Random Access Memory(RAM)100B、Read Only Memory(ROM)100C、及びNon-Volatile Memory(NVM)100Dを含んでいる。また、表示装置100は、指紋センサ100F、タッチパネル100H、及びディスプレイ100Iを含んでいる。尚、表示装置100は指紋センサ100Fに代えて、指紋センサ100Fに相当する二次元入力デバイスを含んでいてもよい。
表示装置100は、必要に応じて、Radio Frequency(RF)回路100E、カメラ100G、及びスピーカ100Jを含んでいてもよい。RF回路100Eにはアンテナ100E´が接続されている。RF回路100Eに代えて通信機能を実現するCPU(不図示)が利用されてもよい。CPU100Aからスピーカ100Jまでは、内部バス100Kによって互いに接続されている。少なくともCPU100AとRAM100Bとが協働することによってコンピュータが実現される。尚、CPU100Aに代えてMicro Processing Unit(MPU)をハードウェアプロセッサとして利用してもよい。
上述したRAM100Bには、ROM100CやNVM100Dに記憶されたプログラムがCPU100Aによって格納される。格納されたプログラムをCPU100Aが実行することにより、CPU100Aは後述する各種の機能を実現し、後述する各種の処理を実行する。尚、プログラムは後述するフローチャートに応じたものとすればよい。
図3(a)は表示装置100の機能ブロック図の一例である。特に、図3(a)では表示装置100が実現する機能の要部を表している。図3(b)は入力部110に対する手指FGの移動例である。図3(a)に示すように、表示装置100は、上述した入力部110及び表示部120のほか、記憶部130並びに制御部140を含んでいる。
ここで、入力部110は例えば上述した指紋センサ100Fによって実現することができる。表示部120は例えば上述したディスプレイ100Iによって実現することができる。記憶部130は例えば上述したNVM100Dによって実現することができる。制御部140は例えば上述したCPU100Aによって実現することができる。
入力部110は検出対象がユーザの手指FGである場合、手指FGの接触及び手指FGの二次元の移動を検出する。入力部110が手指FGの接触を検出した場合、入力部110は手指FGの指紋を読み取り、読み取った指紋に相当する画像(以下、指紋画像という)を生成して制御部140に出力する。入力部110が手指FGの二次元の移動を検出した場合、二次元の移動を表す移動情報を制御部140に出力する。具体的には、図3(b)に示すように、手指FGが移動起点からx方向とy方向を合成した方向に移動すると、入力部110はその移動を検出し、x成分の移動量とy成分の移動量を含む移動量情報を制御部140に出力する。
表示部120は種々の画面を表示する。より詳しくは、表示部120は画面情報と制御部140による制御とに基づいて、画面の一部を第1拡大率(例えば130%など)で拡大した画面や、画面の一部を第1拡大率より大きな第2拡大率(例えば220%など)で拡大した画面を表示する。望ましくは、表示部120は画面の一部を、表示領域全面を覆う大きさに拡大した画面を表示する。その他、表示部120は画面情報と制御部140による制御に基づいて、画面を拡大する前の元の画面を表示する。記憶部130は上述したプログラムのほか、画面内の拡大対象範囲又は拡大対象領域(以下、単に拡大対象範囲という)を移動させる際の移動順序を規定する移動順序情報を記憶する。移動順序情報には順送り用移動順序情報と逆送り用移動順序情報とがある。また、記憶部130は上述した指紋画像を表す画像情報及び元の画面を表す画面情報を記憶する。
制御部140は表示装置100の動作全体を制御する。例えば、制御部140は入力部110から異なるタイミングで出力された2つの指紋画像を閾値時間内に受け付けると、2つの指紋画像を比較する。制御部140は後述するダブルタップ操作により指紋画像を受け付けてもよい。そして、制御部140は2つの指紋画像の類似度が閾値類似度以上(例えば90%以上など)であると判断すると、画面の拡大対象範囲を第1拡大率で拡大して表示する画面情報を表示部120に出力する。この際、制御部140は記憶部130が記憶する移動順序情報を参照して、拡大対象範囲の位置を決定する。詳細は後述するが、制御部140は移動順序情報に含まれる移動順序の中から拡大対象範囲の表示起点を特定し、特定した表示起点に対応する位置の拡大対象範囲を拡大して表示する。
尚、制御部140は最初に受け付けた指紋画像が予め記憶部130に記憶された指紋画像と類似すると判断してから、次に受け付けた指紋画像と最初に受け付けた指紋画像とを比較してもよい。すなわち、制御部140は最初に受け付けた指紋画像と予め記憶された指紋画像を利用して、表示装置100の利用可否を決定する認証処理を実行してもよい。
また、制御部140は入力部110から出力された移動量情報を受け付けると、図3(b)に示すように、y成分の移動量を抽出し、手指FGの移動量を特定する。y成分の移動量の抽出に代えて、x成分の移動量の削除であってもよい。制御部140は移動量を特定すると、記憶部130が記憶する移動順序情報を参照し、第1拡大率で拡大して表示された拡大対象範囲を、移動順序に従って移動量に応じて移動させる。そして、制御部140は入力部110が手指FGの接触を検出していないと判断すると、第1拡大率で拡大して表示された拡大対象範囲を第2拡大率で拡大して表示する。
さらに、制御部140は入力部110から出力された接触を繰り返し受け付けると、閾値時間以内に同じ部分に2度の接触があったか否かを判断し、閾値時間以内に同じ部分に2度の接触があったと判断すると、ダブルタップ操作であると判断する。制御部140はダブルタップ操作を受け付けると、元の画面を表す画面情報を表示部120に出力する。これにより、表示部120は第1拡大率及び第2拡大率で拡大する前の画面を表示する。
続いて、表示装置100の動作について説明する。
図4は表示装置100の動作の一例を示すフローチャートである。図5(a)〜(e)は画面の拡大対象範囲を第1拡大率で拡大するまでの操作を説明するための図である。図6(a)は画面の分割例を説明するための図である。図6(b)は順送り用移動順序情報の一例である。図6(c)は画面の拡大対象範囲を第1拡大率で拡大した画面例である。
まず、図4に示すように、制御部140は入力部110に対するダブルタップ操作があるまで待機する(ステップS101:NO)。制御部140は入力部110に対するダブルタップ操作があったと判断すると(ステップS101:YES)、選択ブロックを第1拡大率で拡大表示する(ステップS102)。尚、選択ブロックの詳細については後述する。
例えば図5(a)に示すように、時刻t=0から時刻t=t1にかけて手指FGが入力部110に接触していない状態(適宜、非接触状態という)である場合、図5(b)に示すように、入力部110は時刻t=0から時刻t=t1にかけて自身に対する操作を検出していないことを表すOFF状態を維持する。このため、図5(c)に示すように、入力部110は指紋画像を生成せず、図5(d)に示すように、制御部140は時刻t=0から時刻t=t1にかけて画像取得イベントを起動していないOFF状態を維持する。このように、制御部140は入力部110に対するダブルタップ操作があるまで待機する。尚、図5(c)において、入力部110が指紋画像を生成していないことを破線の矩形枠で表している。
一方、図5(a)に示すように、時刻t=t1から時刻t=t2にかけて手指FGが入力部110に接触した状態(適宜、接触状態という)である場合、図5(b)に示すように、入力部110は時刻t=t1から時刻t=t2にかけて自身に対する操作を検出したことを表すON状態を維持する。このため、図5(c)に示すように、入力部110は指紋画像10を生成し、図5(d)に示すように、制御部140は時刻t=1から時刻t=t1´にかけて画像取得イベントを起動したことを表すON状態を維持する。尚、時刻t=t2に至る前に入力部110は指紋画像10を生成し終えるため、制御部140は時刻t=t1´にOFF状態に移行する。
さらに、図5(a)に示すように、手指FGが入力部110から退避して時刻t=t2から時刻t=t3にかけて手指FGが非接触状態である場合、図5(b)に示すように、入力部110は時刻t=t2から時刻t=t3にかけてOFF状態を維持する。このため、図5(c)に示すように、入力部110は指紋画像を生成せず、図5(d)に示すように、制御部140は時刻t=t2から時刻t=t3にかけてOFF状態を維持する。
そして、図5(a)に示すように、時刻t=t1又は時刻t=t2から閾値時間以内の時刻t=t3から手指FGが接触状態である場合、図5(b)に示すように、入力部110は時刻t=t3からON状態を維持する。このため、図5(c)に示すように、入力部110は指紋画像20を生成し、図5(d)に示すように、制御部140は時刻t=t3から時刻t=t3´にかけてON状態を維持する。入力部110が指紋画像20を生成し終えると、制御部140は2つの指紋画像10,20を比較し、2つの指紋画像10,20の類似度が閾値類似度以上であると判断すると、ダブルタップ操作があったと判断する。
制御部140はダブルタップ操作があったと判断すると、次いで、画面の一部分を第1拡大率で拡大表示する。より詳しくは、制御部140はダブルタップ操作があったと判断すると、図5(e)に示すように、判断した時刻t=t4に拡大モードを起動する。制御部140は拡大モードを起動すると、図6(a)に示すように、画面をY軸方向とZ軸方向の二次元の方向に分割する。すなわち、制御部140は手指FGが移動する方向を特定する二次元と異なる二次元の方向に画面を分割する。以下、画面を分割することにより生じた複数の部分を分割ブロック30という。
本実施形態では、画面がY軸方向とZ軸方向にそれぞれ3分割されて9つの分割ブロック30が示されているが、分割数は表示部120の表示領域の大きさと手指FGの移動量の刻み(又は単位)とに応じて適宜決定することができる。例えば、手指FGの移動量の刻みを細かく設定することにより、画面をさらに細かく分割してもよい。各分割ブロック30には、図6(a)に示すように、便宜的に分割ブロック30の位置を識別する識別情報「中央」や「左上」などが示されている。
制御部140は画面を複数の分割ブロック30に分割すると、記憶部130が記憶する移動順序情報に基づいて、分割ブロック30のいずれかが選択ブロックとして選択された状態であると認定する。例えば、記憶部130が図6(b)に示す順送り用移動順序情報を記憶している場合、最初に拡大表示する起点を表す順序情報「1」に基づいて、識別情報「中央」と対応する分割ブロック30が選択ブロックとして選択された状態であると認定する。尚、順序情報「1」は対角にある隅に位置する順序情報「3」及び「8」又は「5」及び「6」の各位置から等距離である。制御部140は分割ブロック30のいずれかが選択ブロックとして選択された状態であると認定すると、選択ブロックを第1拡大率で拡大表示する。これにより、図6(c)に示すように、第1拡大率で拡大表示された選択ブロック40が画面内に出現する。すなわち、選択ブロック40は拡大対象範囲として選択され、第1拡大率で拡大表示された分割ブロック30に対応する。
尚、図6(b)に示すように、移動順序を定めた理由は、Web画面のレイアウトでは傾向的に画面の上部に広告が配置されていることが多く、その広告を拡大表示することが少ないと想定されるためである。一方、画面の中央左側には資料本文の文頭が配置され、画面の中央や中央右側にはその資料本文の説明図や画像が配置されていることが多く、説明図や画像を拡大表示することが多いと想定されるためである。
図4に戻り、ステップS102の処理が完了すると、次いで、制御部140は入力部110に対する下方スライド操作があったか否かを判断する(ステップS103)。そして、制御部140は入力部110に対する下方スライド操作があったと判断した場合(ステップS103:YES)、選択ブロックを順送り用移動順序情報に基づいて移動させる(ステップS104)。
より詳しくは、図7(a)の左側の図に示すように、入力部110に手指FGが位置P1に接触した状態で、図7(a)の中央の図に示すように、位置P2まで入力部110の下方(具体的にはY軸の正方向)にスライドする操作が行われると、入力部110は位置P1から位置P2までのy成分の移動量を含む移動量情報を制御部140に出力する。制御部140は入力部110から出力された移動量情報に含まれるy成分の移動量が予め定めた単位移動量以上であると判断すると、順送り用移動順序情報(図6(b)参照)に基づいて、図7(b)の左側の図及び中央の図に示すように、中央に表示された選択ブロック40を右中央に移動させる。すなわち、順送り用移動順序情報に含まれる順序情報「1」から次の順序情報「2」で規定される位置に制御部140は選択ブロック40を移動させる。
制御部140はステップS104の処理が完了すると、再び、ステップS103の処理を実行する。したがって、図7(a)の中央の図に示すように、入力部110に手指FGが位置P2に接触した状態で、図7(a)の右側の図に示すように、位置P3まで続けて入力部110の下方にスライドする操作が行われると、入力部110は位置P2から位置P3までのy成分の移動量を含む移動量情報を制御部140に出力する。制御部140は入力部110から出力された移動量情報に含まれるy成分の移動量が単位移動量以上であると判断すると、同様に、図7(b)の中央の図及び右側の図に示すように、右中央に表示された選択ブロック40を左下に移動させる。すなわち、順送り用選択順序情報(図6(b)参照)に含まれる順序情報「2」から次の順序情報「3」で規定される位置に制御部140は選択ブロック40を移動させる。
一方、制御部140は入力部110に対する下方スライド操作がなかったと判断した場合(ステップS103:NO)、次いで、制御部140は入力部110に対する上方スライド操作があったか否かを判断する(ステップS105)。そして、制御部140は入力部110に対する上方スライド操作があったと判断した場合(ステップS105:YES)、選択ブロックを逆送り用移動順序情報に基づいて移動させる(ステップS106)。尚、逆送り用移動順序情報の詳細については後述する。
さらに、制御部140は入力部110に対する上方スライド操作がなかったと判断した場合(ステップS105:NO)、次いで、制御部140は非接触状態を検出したか否かを判断する(ステップS107)。制御部140は非接触状態を検出しなかったと判断した場合(ステップS107:NO)、再び、ステップS103の処理を実行する。すなわち、入力部110に手指FGが接触している限り、制御部140はステップS103,S104の処理を実行したり、S105,S106の処理を実行したりする。
一方、制御部140は非接触状態を検出したと判断した場合(ステップS107:YES)、選択ブロックを第2拡大率で拡大表示する(ステップS108)。より詳しくは、図8(a)の左側の図に示すように、入力部110に手指FGが位置P3に接触した状態で、図8(a)の中央の図に示すように、手指FGが入力部110から退避して離れると、制御部140は非接触状態を検出し、選択ブロック40を拡大する決定を検出したと判断する。制御部140は非接触状態を検出したと判断すると、図8(b)の左側の図及び中央の図に示すように、左下に表示された選択ブロック40を第2拡大率で拡大表示する。
尚、制御部140が非接触状態を検出したと判断した場合に、選択ブロック40を第2拡大率で拡大表示するのではなく、手指FGが入力部110から退避して離れた後、制御部140がダブルタップ操作を検出したと判断した場合に、選択ブロック40を第2拡大率で拡大表示するようにしてもよい。これにより、ユーザが意図せずに入力部110から手指FGを退避して離した場合に選択ブロック40が第2拡大率で拡大表示されることを回避することができる。
制御部140はステップS108の処理を終えると、次いで、入力部110に対するダブルタップ操作があるまで待機する(ステップS109:NO)。制御部140は入力部110に対するダブルタップ操作があったと判断すると(ステップS109:YES)、元の画面を表示する(ステップS110)。より詳しくは、選択ブロック40が第2拡大率で拡大されている状態で、図8(a)の右側の図に示すように、入力部110に対し手指FGによりダブルタップ操作が行われると、制御部140はダブルタップ操作を検出したと判断する。制御部140はダブルタップ操作を検出したと判断すると、図8(b)の右側の図に示すように、第1拡大率でも第2拡大率でも拡大されていない拡大モード起動前の画面を表示する。
次に、図9を参照して、上述した順送り用選択順序情報の他の一例について説明する。
図9(a)〜(c)はいずれも順送り用選択順序情報の他の一例である。順送り用選択順序情報はいずれも下方スライド操作で利用される情報である。図6(b)を参照して説明した順送り用選択順序情報では、複数の分割ブロック30の中央を選択ブロック40の移動起点とした。そして、下方スライド操作が行われるに従って、選択ブロック40が右中央、左下、中央下、右下、左上、中央上、右上、左中央の順に移動した。
例えば、図9(a)に示すように、選択ブロック40の移動順序を図6(b)に示した移動順序と異なる順序としてもよい。具体的には、複数の分割ブロック30の中央を選択ブロック40の移動起点とし、下方スライド操作が行われるに従って、選択ブロック40が中央下、右上、右中央、右下、左上、左中央、左下、中央上の順に移動してもよい。特に、順序情報「1」は対角にある隅に位置する順序情報「3」及び「8」又は「5」及び「6」の各位置から等距離であるため、選択ブロック40を対角にある隅に移動させるまで、下方スライド操作による移動量と上方スライド操作による移動量が同じになり操作性が良い。また、図9(b)に示すように、複数の分割ブロック30の左上を選択ブロック40の移動起点とし、下方スライド操作が行われるに従って、選択ブロック40が中央上、右上、左中央、中央、右中央、左下、中央下、右下の順に移動してもよい。さらに、図9(c)に示すように、複数の分割ブロック30の左上を選択ブロック40の移動起点とし、下方スライド操作が行われるに従って、選択ブロック40が左中央、左下、中央上、中央、中央下、右上、右中央、右下の順に移動してもよい。
次に、図10を参照して、ステップS106の処理で説明した逆送り用選択順序情報の一例について説明する。
図10(a)〜(d)はいずれも逆送り用選択順序情報の一例である。逆送り用選択順序情報はいずれも上方スライド操作で利用される情報である。まず、図10(a)に示すように、選択ブロック40の移動順序を図6(b)に示した移動順序と逆の順序としてもよい。具体的には、図10(a)に示すように、複数の分割ブロック30の中央を選択ブロック40の移動起点とし、上方スライド操作が行われるに従って、選択ブロック40が左中央、右上、中央上、左上、右下、中央下、左下、右中央の順に移動してもよい。すなわち、図6(b)に示した順送り用選択順序情報と図10(a)に示した逆送り用選択順序情報は対になっている。
また、図10(b)に示すように、選択ブロック40の移動順序を図9(a)に示した移動順序と逆の順序としてもよい。具体的には、図10(b)に示すように、複数の分割ブロック30の中央を選択ブロック40の移動起点とし、上方スライド操作が行われるに従って、選択ブロック40が中央上、左下、左中央、左上、右下、右中央、右上、中央下の順に移動してもよい。すなわち、図9(a)に示した順送り用選択順序情報と図10(b)に示した逆送り用選択順序情報は対になっている。
さらに、図10(c)に示すように、選択ブロック40の移動順序を図9(b)に示した移動順序と逆の順序としてもよい。具体的には、図10(c)に示すように、複数の分割ブロック30の左上を選択ブロック40の移動起点とし、上方スライド操作が行われるに従って、選択ブロック40が右下、中央下、左下、右中央、中央、左中央、右上、中央上の順に移動してもよい。すなわち、図9(b)に示した順送り用選択順序情報と図10(c)に示した逆送り用選択順序情報は対になっている。
さらに、図10(d)に示すように、選択ブロック40の移動順序を図9(c)に示した移動順序と逆の順序としてもよい。具体的には、図10(d)に示すように、複数の分割ブロック30の左上を選択ブロック40の移動起点とし、上方スライド操作が行われるに従って、選択ブロック40が右下、右中央、右上、中央下、中央、中央上、左下、左中央の順に移動してもよい。すなわち、図9(c)に示した順送り用選択順序情報と図10(d)に示した逆送り用選択順序情報は対になっている。
次に、図11を参照して、図10(b)に示した逆送り用選択順序情報を利用した場合の画面遷移について説明する。
図11(a)は逆送り用選択順序情報である。図11(b)〜(i)は表示部120に表示される画面の一例である。記憶部130は図11(a)に示す逆送り用選択順序情報を記憶している。まず、図11(b)に示すように、制御部140が一部分を拡大する前の画面を表示部120に表示している状態で、入力部110に対しダブルタップ操作が行われると、制御部140は逆送り用選択順序情報を参照し、図11(c)に示すように、画面の中央部分に位置する分割ブロック(不図示)を画面の中央部分以外に位置する複数の分割ブロック30を視認可能な第1拡大率で拡大表示した選択ブロック40を含む画面を表示する。
選択ブロック40を含む画面を表示した状態で、入力部110に対し上方スライド操作が行われると、制御部140は逆送り用選択順序情報を参照して、図11(d)から(g)に示すように、選択ブロック40を中央上、左下、左中央、左上の順に連続的に移動させる。そして、入力部110から手指FGが退避して離れると、制御部140は手指FGと入力部110との非接触状態を検出し、図11(h)に示すように、選択ブロック40を第2拡大率で拡大表示した画面を表示部120に表示する。そして、選択ブロック40を第2拡大率で拡大表示した画面が表示部120に表示された状態で、入力部110に対しダブルタップ操作が行われると、図11(i)に示すように、制御部140は元の画面を表示部120に表示する。
以上、第1実施形態によれば、表示装置100は入力部110と表示部120と制御部140とを備えている。入力部110は二次元の情報の入力を受け付ける。表示部120は画面を表示する。制御部140は画面を二次元に分割した複数の分割ブロック30のいずれかが、入力部110が受け付けた情報の一次元成分に基づいて選択された状態であると判断すると、選択ブロック40を選択されなかった残りの分割ブロック30を視認可能な第1拡大率で拡大して表示部120に表示する。そして、制御部140は、選択ブロック40を拡大する決定を検出すると、選択ブロック40を第1拡大率より大きな第2拡大率で拡大して表示部120に表示する。これにより、拡大対象範囲を指定する操作性を向上することができる。
(第2実施形態)
続いて、図12を参照して、本件の第2実施形態について説明する。図12(a)は表示装置100の動作の一例を示すフローチャートの一部である。特に、図12(a)に示すように、第2実施形態に係るフローチャートには第1実施形態に係るフローチャートに一部の処理が加えられている。図12(b)は拡大開始位置決定テーブルの一例である。拡大開始位置決定テーブルは第1実施形態で説明した記憶部130に記憶される。
図12(a)に示すように、上述したステップS101の処理において、制御部140はダブルタップ操作があったと判断した場合、起動中のアプリケーションプログラム(以下、単にアプリという)の名称(以下、アプリ名という)と画面の名称(以下、画面名という)を取得する(ステップS201)。制御部140はアプリ名と画面名を取得すると、アプリ名と画面名の組み合わせがあるか否かを判断する(ステップS202)。より詳しくは、制御部140は記憶部130が記憶する拡大開始位置決定テーブルを参照し、アプリ名と画面名の組み合わせがあるか否かを判断する。
ここで、図12(b)に示すように、拡大開始位置決定テーブルは、アプリ名と画面名の組み合わせと拡大表示停止位置とを関連付けた拡大開始位置決定情報を含んでいる。特に、拡大表示停止位置には、第2拡大率で拡大した選択ブロック40の表示をダブルタップ操作によって停止した際の選択ブロック40の位置が登録されている。例えば、第2拡大率で拡大した選択ブロック40の表示が位置「8」で停止された場合、その選択ブロック40を含む画面の画面名「天気予報画面」とその画面を提供するアプリのアプリ名「Web閲覧アプリ」の組み合わせが位置「8」と共に拡大開始位置決定テーブルに登録される。
制御部140はアプリ名と画面名の組み合わせがないと判断した場合(ステップS202:NO)、第1実施形態で説明したステップS102からS109の処理を実行する。そして、制御部140はS109の処理でダブルタップ操作を検出すると、拡大表示された選択ブロック40の位置をアプリ名と画面名の組み合わせと共に拡大開始位置決定テーブルに登録する(ステップS203)。一方、制御部140はアプリ名と画面名の組み合わせがあると判断した場合(ステップS202:YES)、その組み合わせと関連付いた位置に選択ブロック40を第1拡大率で拡大表示する(ステップS204)。
このように、第2実施形態によれば、ユーザが第2拡大率で拡大表示する選択ブロック40の位置の傾向を管理することができ、ユーザの嗜好に応じた拡大表示を迅速に行うことができる。
以上、本発明の好ましい実施形態について詳述したが、本発明に係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。
なお、以上の説明に関して更に以下の付記を開示する。
(付記1)二次元の情報の入力を受け付ける入力部と、画面を表示する表示部と、前記画面を二次元に分割した複数のブロックのいずれかが、前記入力部が受け付けた情報の一次元成分に基づいて選択された状態であると判断すると、選択されたブロックを選択されなかった残りのブロックを視認可能な第1拡大率で拡大して前記表示部に表示し、前記選択されたブロックを拡大する決定を検出すると、前記選択されたブロックを前記第1拡大率より大きな第2拡大率で拡大して前記表示部に表示する制御部と、を有する表示装置。
(付記2)前記入力部は指紋センサである、ことを特徴とする付記1に記載の表示装置。
(付記3)前記入力部に情報を入力する方向と前記複数のブロックのいずれかが前記一次元成分に基づき選択されるまでの順序を定める方向が異なる、ことを特徴とする付記1又は2に記載の表示装置。
(付記4)前記入力部に情報を入力する方向と前記複数のブロックのいずれかが前記一次元成分に基づき選択されるまでの順序を定める方向の一部が重なる、ことを特徴とする付記1又は2に記載の表示装置。
(付記5)前記制御部は、前記入力部が受け付けた情報に基づいて生成された第1画像と前記入力部が異なるタイミングで受け付けた情報に基づいて生成された第2画像が対応する場合に、前記複数のブロックのいずれかが選択可能な状態に移行する、ことを特徴とする付記1から4のいずれか1項に記載の表示装置。
(付記6)前記複数のブロックのいずれかが前記一次元成分に基づいて選択されるまでの順序の起点が前記画面の対角にある隅に位置する各ブロックから等距離である、ことを特徴とする付記1から5のいずれか1項に記載の表示装置。
(付記7)前記第2拡大率で拡大して表示したブロックの位置を前記画面の名称及び前記画面を提供するアプリの名称の組み合わせと関連付けて記憶する記憶部を含み、前記制御部は、起動中のアプリの名称と前記起動中のアプリが提供する画面の名称の組み合わせが前記記憶部に記憶されたアプリの名称と画面の名称の組み合わせに一致する場合、前記第1拡大率で拡大したブロックを前記記憶部に記憶された位置に表示する、ことを特徴とする付記1から6のいずれか1項に記載の表示装置。
(付記8)表示部が表示する画面を二次元に分割した複数のブロックのいずれかが、入力部が受け付けた二次元の情報の一次元成分に基づいて選択された状態であると判断すると、選択されたブロックを選択されなかった残りのブロックを視認可能な第1拡大率で拡大して前記表示部に表示し、前記選択されたブロックを拡大する決定を検出すると、前記選択されたブロックを前記第1拡大率より大きな第2拡大率で拡大して前記表示部に表示する、処理をコンピュータが実行する表示制御方法。
(付記9)前記入力部は指紋センサである、ことを特徴とする付記8に記載の表示制御方法。
(付記10)前記入力部に情報を入力する方向と前記複数のブロックのいずれかが前記一次元成分に基づき選択されるまでの順序を定める方向が異なる、ことを特徴とする付記8又は9に記載の表示制御方法。
(付記11)前記入力部に情報を入力する方向と前記複数のブロックのいずれかが前記一次元成分に基づき選択されるまでの順序を定める方向の一部が重なる、ことを特徴とする付記8又は9に記載の表示制御方法。
(付記12)前記入力部が受け付けた情報に基づいて生成された第1画像と前記入力部が異なるタイミングで受け付けた情報に基づいて生成された第2画像が対応する場合に、前記複数のブロックのいずれかが選択可能な状態に移行する、処理を含むことを特徴とする付記8から11のいずれか1項に記載の表示制御方法。
(付記13)前記複数のブロックのいずれかが前記一次元成分に基づいて選択されるまでの順序の起点が前記画面の対角にある隅に位置する各ブロックから等距離である、ことを特徴とする付記8から12のいずれか1項に記載の表示制御方法。
(付記14)前記コンピュータが、前記第2拡大率で拡大して表示したブロックの位置を前記画面の名称及び前記画面を提供するアプリの名称の組み合わせと関連付けて記憶する記憶部と接続されており、起動中のアプリの名称と前記起動中のアプリが提供する画面の名称の組み合わせが前記記憶部に記憶されたアプリの名称と画面の名称の組み合わせに一致する場合、前記第1拡大率で拡大したブロックを前記記憶部に記憶された位置に表示する、処理を含むことを特徴とする付記8から13のいずれか1項に記載の表示制御方法。
(付記15)表示部が表示する画面を二次元に分割した複数のブロックのいずれかが、入力部が受け付けた二次元の情報の一次元成分に基づいて選択された状態であると判断すると、選択されたブロックを選択されなかった残りのブロックを視認可能な第1拡大率で拡大して前記表示部に表示し、前記選択されたブロックを拡大する決定を検出すると、前記選択されたブロックを前記第1拡大率より大きな第2拡大率で拡大して前記表示部に表示する、処理をコンピュータに実行させる表示制御プログラム。
100 表示装置
110 入力部
120 表示部
130 記憶部
140 制御部

Claims (9)

  1. 二次元の情報の入力を受け付ける入力部と、
    画面を表示する表示部と、
    前記画面を二次元に分割した複数のブロックのいずれかが、前記入力部が受け付けた情報の一次元成分に基づいて選択された状態であると判断すると、選択されたブロックを選択されなかった残りのブロックを視認可能な第1拡大率で拡大して前記表示部に表示し、前記選択されたブロックを拡大する決定を検出すると、前記選択されたブロックを前記第1拡大率より大きな第2拡大率で拡大して前記表示部に表示する制御部と、
    を有する表示装置。
  2. 前記入力部は指紋センサである、
    ことを特徴とする請求項1に記載の表示装置。
  3. 前記入力部に情報を入力する方向と前記複数のブロックのいずれかが前記一次元成分に基づき選択されるまでの順序を定める方向が異なる、
    ことを特徴とする請求項1又は2に記載の表示装置。
  4. 前記入力部に情報を入力する方向と前記複数のブロックのいずれかが前記一次元成分に基づき選択されるまでの順序を定める方向の一部が重なる、
    ことを特徴とする請求項1又は2に記載の表示装置。
  5. 前記制御部は、前記入力部が受け付けた情報に基づいて生成された第1画像と前記入力部が異なるタイミングで受け付けた情報に基づいて生成された第2画像が対応する場合に、前記複数のブロックのいずれかが選択可能な状態に移行する、
    ことを特徴とする請求項1から4のいずれか1項に記載の表示装置。
  6. 前記複数のブロックのいずれかが前記一次元成分に基づいて選択されるまでの順序の起点が前記画面の対角にある隅に位置する各ブロックから等距離である、
    ことを特徴とする請求項1から5のいずれか1項に記載の表示装置。
  7. 前記第2拡大率で拡大して表示したブロックの位置を前記画面の名称及び前記画面を提供するアプリの名称の組み合わせと関連付けて記憶する記憶部を含み、
    前記制御部は、起動中のアプリの名称と前記起動中のアプリが提供する画面の名称の組み合わせが前記記憶部に記憶されたアプリの名称と画面の名称の組み合わせに一致する場合、前記第1拡大率で拡大したブロックを前記記憶部に記憶された位置に表示する、
    ことを特徴とする請求項1から6のいずれか1項に記載の表示装置。
  8. 表示部が表示する画面を二次元に分割した複数のブロックのいずれかが、入力部が受け付けた二次元の情報の一次元成分に基づいて選択された状態であると判断すると、選択されたブロックを選択されなかった残りのブロックを視認可能な第1拡大率で拡大して前記表示部に表示し、
    前記選択されたブロックを拡大する決定を検出すると、前記選択されたブロックを前記第1拡大率より大きな第2拡大率で拡大して前記表示部に表示する、
    処理をコンピュータが実行する表示制御方法。
  9. 表示部が表示する画面を二次元に分割した複数のブロックのいずれかが、入力部が受け付けた二次元の情報の一次元成分に基づいて選択された状態であると判断すると、選択されたブロックを選択されなかった残りのブロックを視認可能な第1拡大率で拡大して前記表示部に表示し、
    前記選択されたブロックを拡大する決定を検出すると、前記選択されたブロックを前記第1拡大率より大きな第2拡大率で拡大して前記表示部に表示する、
    処理をコンピュータに実行させる表示制御プログラム。
JP2017198210A 2017-10-12 2017-10-12 表示装置、表示制御方法、及び表示制御プログラム Active JP6930787B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017198210A JP6930787B2 (ja) 2017-10-12 2017-10-12 表示装置、表示制御方法、及び表示制御プログラム
US16/155,075 US20190114050A1 (en) 2017-10-12 2018-10-09 Display device, display control method, and display control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017198210A JP6930787B2 (ja) 2017-10-12 2017-10-12 表示装置、表示制御方法、及び表示制御プログラム

Publications (2)

Publication Number Publication Date
JP2019074773A true JP2019074773A (ja) 2019-05-16
JP6930787B2 JP6930787B2 (ja) 2021-09-01

Family

ID=66095731

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017198210A Active JP6930787B2 (ja) 2017-10-12 2017-10-12 表示装置、表示制御方法、及び表示制御プログラム

Country Status (2)

Country Link
US (1) US20190114050A1 (ja)
JP (1) JP6930787B2 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002125150A (ja) * 1998-01-16 2002-04-26 Hitachi Ltd ビデオ表示装置
JP2004259173A (ja) * 2003-02-27 2004-09-16 Foundation For Nara Institute Of Science & Technology ポインティングデバイス
JP2007166616A (ja) * 2005-12-09 2007-06-28 Lg Electronics Inc 画面分割表示機能付きの電子端末及びその画面表示方法
JP2011159190A (ja) * 2010-02-03 2011-08-18 Fuji Xerox Co Ltd 情報処理装置及びプログラム
JP2017138983A (ja) * 2016-02-05 2017-08-10 Line株式会社 コンテンツ提供方法を実行するために記憶媒体に記憶されるコンピュータプログラム、その方法及びその装置

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6545687B2 (en) * 1997-01-09 2003-04-08 Canon Kabushiki Kaisha Thumbnail manipulation using fast and aspect ratio zooming, compressing and scaling
JP3081583B2 (ja) * 1998-03-24 2000-08-28 三洋電機株式会社 デジタルカメラ
JP4440716B2 (ja) * 2003-07-29 2010-03-24 株式会社リコー 表示データ生成装置、表示装置、表示データ生成システム、表示データ生成装置の制御方法、表示データ生成プログラム、記録媒体、電子装置及び電子装置の制御方法
US7212210B2 (en) * 2004-03-17 2007-05-01 Ati Technologies Inc. Method and apparatus for enlarging an output display on a display
JP2005323044A (ja) * 2004-05-07 2005-11-17 Uniden Corp 画像送信装置及び画像受信装置
US20090109243A1 (en) * 2007-10-25 2009-04-30 Nokia Corporation Apparatus and method for zooming objects on a display
US9274698B2 (en) * 2007-10-26 2016-03-01 Blackberry Limited Electronic device and method of controlling same
US8456491B2 (en) * 2009-08-14 2013-06-04 Sony Corporation System to highlight differences in thumbnail images, mobile phone including system, and method
CN102033712A (zh) * 2010-12-25 2011-04-27 鸿富锦精密工业(深圳)有限公司 具有分屏显示功能的电子阅读装置及其显示方法
US9304668B2 (en) * 2011-06-28 2016-04-05 Nokia Technologies Oy Method and apparatus for customizing a display screen of a user interface
EP2592574B1 (en) * 2011-11-08 2020-03-18 BlackBerry Limited Improved block zoom on a mobile electronic device
JP5289540B2 (ja) * 2011-11-14 2013-09-11 株式会社東芝 画像処理装置、及び画像処理方法
JP2013114612A (ja) * 2011-11-30 2013-06-10 Sharp Corp 表示制御装置、表示方法、制御プログラム、および記録媒体
CN105630365A (zh) * 2014-10-29 2016-06-01 深圳富泰宏精密工业有限公司 网页调整方法及系统
JP5939594B2 (ja) * 2014-11-25 2016-06-22 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 画像の拡大又は縮小を行う装置並びに方法
US20190286302A1 (en) * 2018-03-14 2019-09-19 Microsoft Technology Licensing, Llc Interactive and adaptable focus magnification system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002125150A (ja) * 1998-01-16 2002-04-26 Hitachi Ltd ビデオ表示装置
JP2004259173A (ja) * 2003-02-27 2004-09-16 Foundation For Nara Institute Of Science & Technology ポインティングデバイス
JP2007166616A (ja) * 2005-12-09 2007-06-28 Lg Electronics Inc 画面分割表示機能付きの電子端末及びその画面表示方法
JP2011159190A (ja) * 2010-02-03 2011-08-18 Fuji Xerox Co Ltd 情報処理装置及びプログラム
JP2017138983A (ja) * 2016-02-05 2017-08-10 Line株式会社 コンテンツ提供方法を実行するために記憶媒体に記憶されるコンピュータプログラム、その方法及びその装置

Also Published As

Publication number Publication date
US20190114050A1 (en) 2019-04-18
JP6930787B2 (ja) 2021-09-01

Similar Documents

Publication Publication Date Title
KR102339674B1 (ko) 디스플레이 장치 및 방법
US9635267B2 (en) Method and mobile terminal for implementing preview control
US10534509B2 (en) Electronic device having touchscreen and input processing method thereof
WO2021036526A1 (en) Screenshot capturing method, device, electronic device and computer-readable medium
JP6560763B2 (ja) 指紋認識方法、指紋認識装置、プログラム及び記録媒体
US9916082B2 (en) Display input apparatus and computer-readable non-transitory recording medium with display input control program recorded thereon
KR20160086090A (ko) 이미지를 디스플레이하는 사용자 단말기 및 이의 이미지 디스플레이 방법
US11842295B2 (en) Executing application without unlocking mobile device
KR102373021B1 (ko) 글로벌 특수 효과의 전환 방법, 전환 장치, 단말 설비 및 저장 매체
US9569099B2 (en) Method and apparatus for displaying keypad in terminal having touch screen
CN107077296B (zh) 用户终端设备和用于控制用户终端设备的方法
KR20140018639A (ko) 이동 단말기 및 그 제어방법
CN106020698A (zh) 移动终端及其单手模式的实现方法
CN106293563B (zh) 一种控制方法和电子设备
EP2966556B1 (en) Mobile terminal apparatus, image generation method, and non-transitory computer-readable medium storing program
US20160300321A1 (en) Information processing apparatus, method for controlling information processing apparatus, and storage medium
KR20120133003A (ko) 이동 단말기 및 그 제어방법
KR20150044540A (ko) 단말장치의 정보 리스트 처리장치 및 방법
CN108319411B (zh) 一种图表局部放大的方法、装置及电子设备
KR20150139338A (ko) 화상형성장치의 애플리케이션 실행을 조작하는 화면을 제공하는 방법 및 이를 이용하는 화상형성장치
KR20160083723A (ko) 디스플레이 장치 및 이의 디스플레이 방법
JP6930787B2 (ja) 表示装置、表示制御方法、及び表示制御プログラム
CN111124584A (zh) 快捷面板显示方法、终端及可读存储介质
JP2013182463A (ja) 携帯端末装置、タッチ操作制御方法、及びプログラム
CN114115655A (zh) 快捷方式提醒方法及装置

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20180405

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20180410

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20180725

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181019

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201007

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210713

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210714

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210805

R150 Certificate of patent or registration of utility model

Ref document number: 6930787

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533