JP6418119B2 - Display device and image forming apparatus having the same - Google Patents

Display device and image forming apparatus having the same Download PDF

Info

Publication number
JP6418119B2
JP6418119B2 JP2015197838A JP2015197838A JP6418119B2 JP 6418119 B2 JP6418119 B2 JP 6418119B2 JP 2015197838 A JP2015197838 A JP 2015197838A JP 2015197838 A JP2015197838 A JP 2015197838A JP 6418119 B2 JP6418119 B2 JP 6418119B2
Authority
JP
Japan
Prior art keywords
image
display
touch sensor
touch
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015197838A
Other languages
Japanese (ja)
Other versions
JP2017072904A (en
Inventor
辻 拓也
拓也 辻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Document Solutions Inc
Original Assignee
Kyocera Document Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Document Solutions Inc filed Critical Kyocera Document Solutions Inc
Priority to JP2015197838A priority Critical patent/JP6418119B2/en
Publication of JP2017072904A publication Critical patent/JP2017072904A/en
Application granted granted Critical
Publication of JP6418119B2 publication Critical patent/JP6418119B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、表示装置、及びそれを備えた画像形成装置に関する。   The present invention relates to a display device and an image forming apparatus including the display device.

近年、タッチセンサーを備えた表示装置が普及してきている。タッチセンサーは、液晶ディスプレー(Liquid Crystal Display;LCD)のような表示部の表示面上に設置され、ユーザーの表示面に対するジェスチャー動作(典型的には、指ジェスチャー動作)に対応する信号を生成する。表示装置が備えるプロセッサーは、タッチセンサーが生成した信号を受信して、例えば、タップ、長押し、フリップ、及びスワイプのようなジェスチャー動作を検知する。   In recent years, display devices including a touch sensor have become widespread. The touch sensor is installed on a display surface of a display unit such as a liquid crystal display (LCD), and generates a signal corresponding to a gesture operation (typically a finger gesture operation) on the display surface of the user. . A processor included in the display device receives a signal generated by the touch sensor and detects gesture operations such as a tap, a long press, a flip, and a swipe.

タッチセンサーを備えた表示装置は、タッチセンサーを介してテキストの入力を受け付けるように構成することができる(例えば、特許文献1参照。)。具体的には、表示面に仮想入力装置(典型的には、仮想キーボード)の画像を表示し、仮想入力装置の画像(表示面)に対するジェスチャー動作に応じた文字画像を表示面(テキスト入力画面)に表示する。   A display device including a touch sensor can be configured to accept text input via the touch sensor (see, for example, Patent Document 1). Specifically, an image of a virtual input device (typically a virtual keyboard) is displayed on the display surface, and a character image corresponding to a gesture operation on the image (display surface) of the virtual input device is displayed on the display surface (text input screen). ).

一方、テキスト入力画面に表示されている文字画像(入力文字)からなるテキストの修正を実行するには、文字挿入位置又は文字削除位置を示すポインター画像(典型的には、カーソル画像)を、テキスト入力画面においてユーザーが修正を希望する箇所に表示させる必要がある。タッチセンサーを備えた表示装置の中には、ジェスチャー動作に応じた位置にポインター画像を表示させるものがある。典型的には、ユーザーが長押した箇所にポインター画像を表示させる。   On the other hand, in order to execute correction of text consisting of a character image (input character) displayed on the text input screen, a pointer image (typically a cursor image) indicating a character insertion position or character deletion position is used. It is necessary to display on the input screen where the user wants to correct. Some display devices including a touch sensor display a pointer image at a position corresponding to a gesture operation. Typically, a pointer image is displayed at a location where the user has long pressed.

特開2013−020652号公報JP 2013-020652 A

しかしながら、ユーザーが長押した箇所にポインター画像を表示させる構成では、ポインター画像を表示させる箇所が指で隠れてしまう。このため、ユーザーがポインター画像を狙いの位置に表示させ難いという問題があった。   However, in the configuration in which the pointer image is displayed at the location where the user has long pressed, the location where the pointer image is displayed is hidden by the finger. For this reason, there is a problem that it is difficult for the user to display the pointer image at the target position.

本発明は、上記問題に鑑みてなされたものであり、その目的は、ユーザーがポインター画像を狙いの位置に表示させ易い表示装置、及びそれを備えた画像形成装置を提供することにある。   SUMMARY An advantage of some aspects of the invention is that it provides a display device that allows a user to easily display a pointer image at a target position, and an image forming apparatus including the display device.

本発明の表示装置は、表示部と、タッチセンサー部と、制御部とを備える。前記表示部は表示面を有し、前記表示面に画像を表示する。前記タッチセンサー部は、前記表示面に対するジェスチャー動作に対応する信号を生成する。前記制御部は、前記タッチセンサー部が生成した前記信号に基づき、前記ジェスチャー動作に応じた前記画像を前記表示面に表示させる。更に、前記タッチセンサー部は、前記表示面に対して同時に2か所がタッチされる前記ジェスチャー動作に対応して、第1信号を生成する。前記制御部は、前記タッチセンサー部が前記第1信号を生成すると、前記2か所のタッチ位置の中間位置を示す情報を取得する。また、前記制御部は、前記中間位置を示す情報に基づいて、前記表示面にポインター画像を表示させる。   The display device of the present invention includes a display unit, a touch sensor unit, and a control unit. The display unit has a display surface and displays an image on the display surface. The touch sensor unit generates a signal corresponding to a gesture operation on the display surface. The control unit displays the image corresponding to the gesture operation on the display surface based on the signal generated by the touch sensor unit. Further, the touch sensor unit generates a first signal corresponding to the gesture operation in which two places are touched simultaneously on the display surface. When the touch sensor unit generates the first signal, the control unit acquires information indicating an intermediate position between the two touch positions. The control unit displays a pointer image on the display surface based on the information indicating the intermediate position.

本発明の画像形成装置は、上記表示装置を備える。   The image forming apparatus of the present invention includes the display device.

本発明によれば、ユーザーがポインター画像を狙いの位置に表示させ易くなる。   According to the present invention, a user can easily display a pointer image at a target position.

本発明の実施形態に係る画像形成装置を示す図である。1 is a diagram illustrating an image forming apparatus according to an embodiment of the present invention. 本発明の実施形態に係る表示装置の構成を示すブロック図である。It is a block diagram which shows the structure of the display apparatus which concerns on embodiment of this invention. 本発明の実施形態に係るテキスト入力画面を示す図である。It is a figure which shows the text input screen which concerns on embodiment of this invention. 本発明の実施形態に係るポインター画像の表示位置を指示するジェスチャー動作を示す図である。It is a figure which shows the gesture operation | movement which designates the display position of the pointer image which concerns on embodiment of this invention. 図4に示すジェスチャー動作に応じて表示されるポインター画像を示す図である。It is a figure which shows the pointer image displayed according to the gesture operation | movement shown in FIG. 本発明の実施形態に係るポインター画像の表示位置の変更を指示するジェスチャー動作を示す図である。It is a figure which shows the gesture operation | movement which instruct | indicates the change of the display position of the pointer image which concerns on embodiment of this invention. 図6に示すジェスチャー動作に応じて表示されるポインター画像を示す図である。It is a figure which shows the pointer image displayed according to the gesture operation | movement shown in FIG. (a)は、2か所のタッチ位置の中間位置に文字画像が表示されている状態を示す図である。(b)は、図8(a)に示すタッチ位置に応じて表示されるポインター画像を示す図である。(A) is a figure which shows the state in which the character image is displayed on the intermediate position of two touch positions. (B) is a figure which shows the pointer image displayed according to the touch position shown to Fig.8 (a). 本発明の実施形態2に係る仮想入力装置の起動を指示するジェスチャー動作を示す図である。It is a figure which shows gesture operation which instruct | indicates starting of the virtual input device which concerns on Embodiment 2 of this invention. 図9に示すジェスチャー動作に応じて表示される仮想入力装置を示す図である。It is a figure which shows the virtual input device displayed according to the gesture operation | movement shown in FIG.

以下、図面を参照して本発明の実施形態を説明する。但し、本発明は以下の実施形態に限定されない。図中、同一又は相当部分については同一の参照符号を付して説明を繰り返さない。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. However, the present invention is not limited to the following embodiments. In the drawings, the same or corresponding parts are denoted by the same reference numerals, and description thereof will not be repeated.

[実施形態1]
図1は、本実施形態に係る画像形成装置を示す図である。図1に示すように、画像形成装置100は、操作パネル部1を備える。操作パネル部1は、タッチパネル部2を含む。本実施形態において、画像形成装置100は、電子写真方式の複合機である。
[Embodiment 1]
FIG. 1 is a diagram illustrating an image forming apparatus according to the present embodiment. As shown in FIG. 1, the image forming apparatus 100 includes an operation panel unit 1. The operation panel unit 1 includes a touch panel unit 2. In the present embodiment, the image forming apparatus 100 is an electrophotographic multifunction peripheral.

続いて図2を参照して、画像形成装置100が備える表示装置101の構成について説明する。図2は、表示装置101の構成を示すブロック図である。図2に示すように、表示装置101は、操作パネル部1、記憶部3、及び制御部4を備える。操作パネル部1は、タッチパネル部2、及びハードキー5を含み、タッチパネル部2は、タッチセンサー6、及び表示部7を含む。   Next, the configuration of the display device 101 included in the image forming apparatus 100 will be described with reference to FIG. FIG. 2 is a block diagram illustrating a configuration of the display device 101. As illustrated in FIG. 2, the display device 101 includes an operation panel unit 1, a storage unit 3, and a control unit 4. The operation panel unit 1 includes a touch panel unit 2 and hard keys 5, and the touch panel unit 2 includes a touch sensor 6 and a display unit 7.

操作パネル部1は、画像形成装置100の操作パネル部である。操作パネル部1に含まれるハードキー5は、ユーザーによって操作されると、その操作に応じた信号を制御部4へ送信する。ユーザーは、ハードキー5を操作して、制御部4へ各種の指示を与えることができる。例えば、ハードキー5は、スタートキー、決定キー、及びテンキーを含み得る。更に、ハードキー5は、画像形成装置100の動作モードを、コピー、スキャナー、及びファクシミリ送受信等の各動作モード間で切り換えるためのキーや、選択された文書の印刷、送信、及び受信等を指示するためのキーを含み得る。   The operation panel unit 1 is an operation panel unit of the image forming apparatus 100. When the hard key 5 included in the operation panel unit 1 is operated by the user, a signal corresponding to the operation is transmitted to the control unit 4. The user can give various instructions to the control unit 4 by operating the hard key 5. For example, the hard key 5 may include a start key, a determination key, and a numeric keypad. Further, the hard key 5 is a key for switching the operation mode of the image forming apparatus 100 between operation modes such as copying, scanning, and facsimile transmission / reception, and instructing printing, transmission, reception, and the like of the selected document. Keys to do.

タッチセンサー6は表示部7の表示面上に配置され、表示部7の表示面に対するジェスチャー動作(典型的には、指ジェスチャー動作)に対応する信号を生成する。詳しくは、ユーザーによるタッチを検知し、タッチ位置(タッチされた位置)に対応する信号を生成する。ユーザーは、ジェスチャー動作により、制御部4へ各種の指示を与えることができる。表示部7は、例えばLCDである。なお、本実施形態では、操作パネル部1がタッチパネル部2とハードキー5とを含む構成について説明するが、ハードキー5は省略され得る。   The touch sensor 6 is disposed on the display surface of the display unit 7 and generates a signal corresponding to a gesture operation (typically a finger gesture operation) on the display surface of the display unit 7. Specifically, the touch by the user is detected, and a signal corresponding to the touch position (touched position) is generated. The user can give various instructions to the control unit 4 by gesture operation. The display unit 7 is, for example, an LCD. In the present embodiment, the configuration in which the operation panel unit 1 includes the touch panel unit 2 and the hard keys 5 will be described, but the hard keys 5 may be omitted.

タッチセンサー6の構成は、ジェスチャー動作の検知が可能である限り特に限定されるものではない。例えば、静電容量方式のタッチセンサー、抵抗膜方式のタッチセンサー、又は超音波検出方式のタッチセンサーを採用することができる。詳しくは、タッチセンサー6が、静電容量方式のタッチセンサーのようにマルチタッチの検知が可能なタッチセンサーである場合、タッチセンサー6は、複数個所がタッチされると各タッチ位置を示す信号を生成する。一方、タッチセンサー6が抵抗膜方式のタッチセンサーである場合、タッチセンサー6は、複数個所がタッチされると、各タッチ位置の中間の位置(各タッチ位置から等距離の位置)を示す信号を生成する。   The configuration of the touch sensor 6 is not particularly limited as long as the gesture motion can be detected. For example, a capacitive touch sensor, a resistive touch sensor, or an ultrasonic detection touch sensor can be employed. Specifically, when the touch sensor 6 is a touch sensor capable of detecting multi-touch such as a capacitive touch sensor, the touch sensor 6 outputs a signal indicating each touch position when a plurality of places are touched. Generate. On the other hand, when the touch sensor 6 is a resistive film type touch sensor, the touch sensor 6 outputs a signal indicating an intermediate position of each touch position (a position equidistant from each touch position) when a plurality of places are touched. Generate.

記憶部3は、画像形成装置100の記憶部である。記憶部3は、例えば、HDD(Hard Disk Drive)、RAM(Random Access Memory)及びROM(Read Only Memory)によって構成され得る。記憶部3は、プログラムや設定情報などを記憶する。設定情報は、具体的には、タッチセンサー6が生成する信号と座標との対応を示す座標テーブルのデータを含む。また、設定情報は、表示部7に表示する文字のフォントを示すフォント設定情報や、表示部7に表示する文字のサイズを示す文字サイズ設定情報などを含む。記憶部3は更に、表示部7に表示する画像の画像データを記憶する。   The storage unit 3 is a storage unit of the image forming apparatus 100. The storage unit 3 can be configured by, for example, an HDD (Hard Disk Drive), a RAM (Random Access Memory), and a ROM (Read Only Memory). The storage unit 3 stores programs and setting information. Specifically, the setting information includes data of a coordinate table indicating correspondence between signals generated by the touch sensor 6 and coordinates. The setting information includes font setting information indicating the font of the character displayed on the display unit 7, character size setting information indicating the size of the character displayed on the display unit 7, and the like. The storage unit 3 further stores image data of an image to be displayed on the display unit 7.

制御部4は、画像形成装置100の制御部である。制御部4は、例えばCPU(Central Processing Unit)又はMPU(Micro Processing Unit)のようなプロセッサーを含む。また、制御部4は、画像処理用のASIC(Application Specific Integrated Circuit)を含む。更に、制御部4は、表示部7の駆動回路等の各駆動回路を含む。   The control unit 4 is a control unit of the image forming apparatus 100. The control unit 4 includes a processor such as a CPU (Central Processing Unit) or an MPU (Micro Processing Unit). Further, the control unit 4 includes an ASIC (Application Specific Integrated Circuit) for image processing. Further, the control unit 4 includes each drive circuit such as a drive circuit for the display unit 7.

制御部4は、記憶部3に記憶されているプログラムを実行することによって、数値計算や情報処理、機器制御のような様々な処理を行い、表示装置101を含む画像形成装置100の各部の動作を制御する。つまり、制御部4は、ユーザーによるハードキー5の操作に応じて、画像形成装置100の各部の動作を制御する。また、表示部7の表示面に対するジェスチャー動作に応じて、画像形成装置100の各部の動作を制御する。具体的には、制御部4は、タッチセンサー6が生成した信号に基づき、例えば、タップ、長押し、フリップ、及びスワイプのようなジェスチャー動作に応じた画像を表示部7の表示面に表示させる。   The control unit 4 executes various programs such as numerical calculation, information processing, and device control by executing a program stored in the storage unit 3, and the operation of each unit of the image forming apparatus 100 including the display device 101. To control. That is, the control unit 4 controls the operation of each unit of the image forming apparatus 100 according to the operation of the hard key 5 by the user. Further, the operation of each unit of the image forming apparatus 100 is controlled according to the gesture operation on the display surface of the display unit 7. Specifically, based on the signal generated by the touch sensor 6, the control unit 4 displays an image corresponding to gesture operations such as tap, long press, flip, and swipe on the display surface of the display unit 7. .

表示装置101は、タッチセンサー6を介してテキストの入力を受け付けるように構成されている。以下、テキスト入力画面に表示されている文字画像(入力文字)からなるテキストの修正作業(いわゆるテキスト編集作業)の際に制御部4が実行する処理について説明する。   The display device 101 is configured to accept text input via the touch sensor 6. Hereinafter, a process executed by the control unit 4 in a text correction operation (so-called text editing operation) made up of character images (input characters) displayed on the text input screen will be described.

本実施形態において、制御部4は、テキスト編集作業時に、文字挿入位置又は文字削除位置を示すポインター画像(典型的には、カーソル画像)を、ジェスチャー動作に応じた位置に表示させる。具体的には、表示部7の表示面に対して同時に2か所がタッチされるジェスチャー動作が行われると、2か所のタッチ位置の中間位置を示す情報に基づいて、表示部7の表示面にポインター画像を表示させる。   In the present embodiment, the control unit 4 displays a pointer image (typically a cursor image) indicating a character insertion position or a character deletion position at a position corresponding to a gesture operation during text editing work. Specifically, when a gesture operation in which two places are simultaneously touched on the display surface of the display unit 7 is performed, the display on the display unit 7 is displayed based on information indicating an intermediate position between the two touch positions. Display a pointer image on the screen.

詳しくは、タッチセンサー6がマルチタッチの検知が可能なタッチセンサーである場合、タッチセンサー6は、表示部7の表示面に対して同時に2か所をタッチするジェスチャー動作に対応して、各タッチ位置を示す信号を生成する。制御部4は、タッチセンサー6が生成した信号に基づき、まず、2か所のタッチ位置のそれぞれの座標を、座標テーブルを参照して取得する。その後、制御部4は、各タッチ位置の座標を基に、各タッチ位置の中間位置の座標を演算により取得する。一方、タッチセンサー6が抵抗膜方式のタッチセンサーである場合、タッチセンサー6は、表示部7の表示面に対して同時に2か所をタッチするジェスチャー動作に対応して、各タッチ位置の中間位置を示す信号を生成する。よって、制御部4は、タッチセンサー6が生成した信号に基づき、座標テーブルを参照して、各タッチ位置の中間位置の座標を取得する。制御部4は、中間位置の座標を取得すると、中間位置にポインター画像を表示させる。   Specifically, when the touch sensor 6 is a touch sensor that can detect multi-touch, the touch sensor 6 corresponds to a gesture operation of simultaneously touching two places on the display surface of the display unit 7, and each touch is performed. A signal indicating the position is generated. Based on the signal generated by the touch sensor 6, the control unit 4 first acquires the coordinates of the two touch positions with reference to the coordinate table. Thereafter, the control unit 4 acquires the coordinates of the intermediate position of each touch position by calculation based on the coordinates of each touch position. On the other hand, when the touch sensor 6 is a resistive film type touch sensor, the touch sensor 6 corresponds to a gesture operation of simultaneously touching two places on the display surface of the display unit 7, and is an intermediate position between the touch positions. Is generated. Therefore, the control unit 4 refers to the coordinate table based on the signal generated by the touch sensor 6 and acquires the coordinates of the intermediate position of each touch position. When acquiring the coordinates of the intermediate position, the control unit 4 displays a pointer image at the intermediate position.

ポインター画像の表示位置は、2か所のタッチのうちの少なくとも一方が検知されなくなることによって確定する。典型的には、ユーザーが、表示部7の表示面(タッチセンサー6)から指を離すことにより、ポインター画像の表示位置が確定する。   The display position of the pointer image is determined when at least one of the two touches is not detected. Typically, when the user removes his / her finger from the display surface (touch sensor 6) of the display unit 7, the display position of the pointer image is determined.

ポインター画像の表示後、2か所のタッチ位置の少なくとも一方をスライドさせるジェスチャー動作が行われると、制御部4は、タッチ位置のスライドに応じて、ポインター画像の表示位置を変化させる。詳しくは、2か所のタッチ位置の少なくとも一方をスライドさせるジェスチャー動作が行われると、そのスライドに伴い、タッチセンサー6から制御部4へ送信される信号が変化する。制御部4は、タッチセンサー6から送信される信号の変化に応じて、各タッチ位置の中間位置の座標を逐次取得する。つまり、中間位置の座標が変化する。その結果、ポインター画像の表示位置が変化する。   When a gesture operation for sliding at least one of the two touch positions is performed after the pointer image is displayed, the control unit 4 changes the display position of the pointer image according to the sliding of the touch position. Specifically, when a gesture operation for sliding at least one of the two touch positions is performed, a signal transmitted from the touch sensor 6 to the control unit 4 changes with the slide. The control unit 4 sequentially acquires the coordinates of the intermediate position of each touch position according to the change in the signal transmitted from the touch sensor 6. That is, the coordinates of the intermediate position change. As a result, the display position of the pointer image changes.

更に、中間位置にポインター画像を表示させると、テキスト入力画面に表示されている文字画像にポインター画像が重なる場合、制御部4は、ポインター画像の表示位置を、文字画像に重ならない位置にずらす処理を行う。具体的には、制御部4は、中間位置を示す情報(座標)に基づき、中間位置に文字画像が表示されているか否かの判定を行う。詳しくは、制御部4は、表示部7に表示されている画像の画像データと、中間位置の座標とを比較して、中間位置が文字画像の描画領域のいずれかに含まれるか否かを判定する。その判定の結果、中間位置に文字画像が表示されている場合(換言すると、中間位置が文字画像の描画領域のいずれかに含まれる場合)、制御部4は、その文字画像の描画領域の境界のうち、テキスト入力画面のレイアウト方向における予め定められた側の境界にポインター画像を表示させる。なお、文字画像の描画領域の範囲は、座標によって特定することが可能である。   Further, when the pointer image is displayed at the intermediate position, if the pointer image overlaps the character image displayed on the text input screen, the control unit 4 shifts the display position of the pointer image to a position not overlapping the character image. I do. Specifically, the control unit 4 determines whether or not a character image is displayed at the intermediate position based on information (coordinates) indicating the intermediate position. Specifically, the control unit 4 compares the image data of the image displayed on the display unit 7 with the coordinates of the intermediate position, and determines whether the intermediate position is included in any of the drawing areas of the character image. judge. As a result of the determination, when the character image is displayed at the intermediate position (in other words, when the intermediate position is included in any of the drawing areas of the character image), the control unit 4 determines the boundary of the drawing area of the character image. Among them, a pointer image is displayed at a predetermined boundary in the layout direction of the text input screen. Note that the range of the drawing area of the character image can be specified by coordinates.

以上説明した各処理について、図3〜図8を参照して具体的に説明する。図3は、テキスト入力画面の一例を示す。図4は、ポインター画像の表示位置を指示するジェスチャー動作を示し、図5は、図4に示すジェスチャー動作に応じて表示されるポインター画像を示す。本実施形態では、図3に示すように、8つのひらがな文字「あ」(ひらがな文字「あ」を示す8つの文字画像9)からなるテキスト(確定したテキスト)を表示するテキスト入力画面を例に、制御部4がテキスト編集作業時に実行する処理を説明する。なお、理解の容易のために、図3〜図8にはタッチセンサー6を図示していない。   Each process described above will be specifically described with reference to FIGS. FIG. 3 shows an example of a text input screen. FIG. 4 shows a gesture operation for indicating the display position of the pointer image, and FIG. 5 shows a pointer image displayed in accordance with the gesture operation shown in FIG. In the present embodiment, as shown in FIG. 3, a text input screen that displays text (fixed text) composed of eight hiragana characters “A” (eight character images 9 indicating the Hiragana characters “A”) is taken as an example. A process executed by the control unit 4 during text editing work will be described. For ease of understanding, the touch sensor 6 is not shown in FIGS.

図3に示すように、表示部7の表示面7aにテキスト入力画面が表示されている状態において、図4に示すように、表示面7aに対し同時に2か所をタッチするジェスチャー動作が行われると、制御部4は、2か所のタッチ位置T1、T2の中間位置Mを示す情報(座標)を取得する。その結果、図5に示すように、中間位置Mにポインター画像10(本実施形態では、カーソル画像)が表示される。   As shown in FIG. 3, in the state where the text input screen is displayed on the display surface 7a of the display unit 7, as shown in FIG. 4, a gesture operation of simultaneously touching two places on the display surface 7a is performed. Then, the control unit 4 acquires information (coordinates) indicating an intermediate position M between the two touch positions T1 and T2. As a result, a pointer image 10 (cursor image in the present embodiment) is displayed at the intermediate position M as shown in FIG.

図6は、ポインター画像10の表示位置の変更を指示するジェスチャー動作を示し、図7は、図6に示すジェスチャー動作に応じて表示されるポインター画像10を示す。   6 shows a gesture operation for instructing a change in the display position of the pointer image 10, and FIG. 7 shows the pointer image 10 displayed in response to the gesture operation shown in FIG.

図6に示すように、タッチ位置T2をスライドさせるジェスチャー動作が行われると、そのジェスチャー動作に対応する信号がタッチセンサー6から制御部4へ送信される。例えば、タッチセンサー6がマルチタッチの検知が可能なタッチセンサーである場合、タッチセンサー6から制御部4へ送信される信号のうち、タッチ位置T2を示す信号が、タッチ位置T2のスライドに応じて変化する。また、タッチセンサー6が抵抗膜方式のタッチセンサーである場合、タッチセンサー6から制御部4へ送信される信号(タッチ位置T1、T2の中間位置Mを示す信号)が、タッチ位置T2のスライドに応じて変化する。よって、制御部4は、タッチセンサー6が生成する信号の変化に応じて、中間位置Mの座標を逐次取得する。その結果、図7に示すように、タッチ位置T2のスライドに応じて、ポインター画像10の表示位置が変化する。   As illustrated in FIG. 6, when a gesture operation for sliding the touch position T <b> 2 is performed, a signal corresponding to the gesture operation is transmitted from the touch sensor 6 to the control unit 4. For example, when the touch sensor 6 is a touch sensor capable of detecting multi-touch, a signal indicating the touch position T2 among signals transmitted from the touch sensor 6 to the control unit 4 is determined according to the slide of the touch position T2. Change. Further, when the touch sensor 6 is a resistive film type touch sensor, a signal (a signal indicating an intermediate position M between the touch positions T1 and T2) transmitted from the touch sensor 6 to the slide at the touch position T2 is transmitted. Will change accordingly. Therefore, the control unit 4 sequentially acquires the coordinates of the intermediate position M according to the change in the signal generated by the touch sensor 6. As a result, as shown in FIG. 7, the display position of the pointer image 10 changes according to the slide of the touch position T2.

続いて図8(a)及び図8(b)を参照して、ポインター画像10を文字画像9に重ならない位置にずらす処理について説明する。図8(a)は、各タッチ位置T1、T2の中間位置Mに文字画像9が表示されている状態を示し、図8(b)は、図8(a)に示すタッチ位置T1、T2に応じて表示されるポインター画像10を示す。なお、図8(a)では、理解の容易のために、文字画像9を破線で示している。   Next, a process for shifting the pointer image 10 to a position that does not overlap the character image 9 will be described with reference to FIGS. FIG. 8A shows a state in which the character image 9 is displayed at an intermediate position M between the touch positions T1 and T2, and FIG. 8B shows the touch positions T1 and T2 shown in FIG. The pointer image 10 displayed in response is shown. In FIG. 8A, the character image 9 is indicated by a broken line for easy understanding.

図8(a)に示すように、文字画像9の描画領域9aは一般的に矩形状であり、4つの辺(4つの境界9b)を含む。各タッチ位置T1、T2の中間位置Mが、文字画像9の描画領域9aに含まれる場合、図8(b)に示すように、制御部4は、描画領域9aの境界9b(辺)のうち、テキスト入力画面のレイアウト方向における予め定められた側の境界9b(辺)にポインター画像10を表示させる。なお、図8(b)には、レイアウト方向が横方向であり、描画領域9aの左側の境界9b(辺)にポインター画像10を表示させる例を示したが、ポインター画像10は右側の境界9b(辺)に表示されてもよい。また、レイアウト方向が縦方向の場合、ポインター画像10は、描画領域9aの上側の境界9b(辺)に表示されてもよいし、下側の境界9b(辺)に表示されてもよい。   As shown in FIG. 8A, the drawing area 9a of the character image 9 is generally rectangular and includes four sides (four boundaries 9b). When the intermediate position M between the touch positions T1 and T2 is included in the drawing area 9a of the character image 9, as shown in FIG. 8B, the control unit 4 includes the boundary 9b (side) of the drawing area 9a. The pointer image 10 is displayed on the boundary 9b (side) on the predetermined side in the layout direction of the text input screen. 8B shows an example in which the layout direction is the horizontal direction and the pointer image 10 is displayed on the left boundary 9b (side) of the drawing area 9a. However, the pointer image 10 is displayed on the right boundary 9b. (Side) may be displayed. When the layout direction is the vertical direction, the pointer image 10 may be displayed on the upper boundary 9b (side) of the drawing area 9a or may be displayed on the lower boundary 9b (side).

以上説明したように、本実施形態によれば、2か所のタッチ位置T1、T2の中間位置Mにポインター画像10を表示させることができる。したがって、ポインター画像10を表示させる箇所が指等で隠れることがないため、ユーザーはポインター画像10を狙いの位置に表示させ易くなる。また、ユーザーは、2か所のタッチ位置T1、T2の少なくとも一方をスライドさせることにより、ポインター画像10を移動させることができる。したがって、ユーザーは、より直感的にポインター画像10の位置決めを行うことができる。また、2か所のタッチ位置T1、T2の中間位置Mに文字画像9が表示されている場合、その文字画像9に重ならない位置にポインター画像10をずらすことができる。よって、文字画像9にポインター画像10が重なる不具合の発生を防止することができる。   As described above, according to the present embodiment, the pointer image 10 can be displayed at the intermediate position M between the two touch positions T1 and T2. Therefore, since the location where the pointer image 10 is displayed is not hidden by a finger or the like, the user can easily display the pointer image 10 at the target position. Further, the user can move the pointer image 10 by sliding at least one of the two touch positions T1 and T2. Therefore, the user can position the pointer image 10 more intuitively. When the character image 9 is displayed at an intermediate position M between the two touch positions T1 and T2, the pointer image 10 can be shifted to a position that does not overlap the character image 9. Therefore, it is possible to prevent the occurrence of the problem that the pointer image 10 overlaps the character image 9.

[実施形態2]
続いて、図面(図2、図9、及び図10)を参照して、実施形態2について説明する。但し、実施形態1と異なる事項を主に説明し、実施形態1と重複する説明は適宜割愛する。実施形態2は、表示装置101がジェスチャー動作に応じて仮想入力装置の画像を表示する点において、実施形態1と異なる。
[Embodiment 2]
Next, Embodiment 2 will be described with reference to the drawings (FIGS. 2, 9, and 10). However, items different from the first embodiment will be mainly described, and a description overlapping with the first embodiment will be omitted as appropriate. The second embodiment is different from the first embodiment in that the display device 101 displays an image of the virtual input device according to a gesture operation.

まず、図2を参照して、実施形態2に係る表示装置101について説明する。実施形態2において、タッチセンサー6は、静電容量方式のタッチセンサーのようにマルチタッチの検知が可能なタッチセンサーである。制御部4は、テキスト編集作業時に、表示部7の表示面に対して同時に2か所がタッチされるジェスチャー動作が行われると、2か所のタッチ位置間の距離を閾値と比較する。制御部4は、2か所のタッチ位置間の距離が閾値を超えている場合に、表示部7の表示面に仮想入力装置(例えば、仮想キーボード)の画像を表示させる。閾値を示す情報は、記憶部3に予め記憶されている。典型的には、ユーザーは、所望の位置にポインター画像を表示させた後、2か所のタッチ位置をそれぞれ外側に向けてスライドさせるジェスチャー動作を行う。このジェスチャー動作により、2か所のタッチ位置間の距離が閾値を超えて、仮想入力装置の画像が表示される。   First, the display device 101 according to the second embodiment will be described with reference to FIG. In the second embodiment, the touch sensor 6 is a touch sensor capable of detecting multi-touch like a capacitive touch sensor. When a gesture operation in which two places are simultaneously touched on the display surface of the display unit 7 is performed during text editing work, the control unit 4 compares the distance between the two touch positions with a threshold value. The control unit 4 displays an image of a virtual input device (for example, a virtual keyboard) on the display surface of the display unit 7 when the distance between the two touch positions exceeds the threshold value. Information indicating the threshold is stored in the storage unit 3 in advance. Typically, after the user displays a pointer image at a desired position, the user performs a gesture operation of sliding the two touch positions outward. By this gesture operation, the distance between the two touch positions exceeds the threshold value, and the image of the virtual input device is displayed.

以上説明した仮想入力装置の画像を表示させる処理について、図9及び図10を参照して具体的に説明する。図9は、仮想入力装置の起動を指示するジェスチャー動作を示し、図10は、図9に示すジェスチャー動作に応じて表示される仮想入力装置11を示す。なお、理解の容易のために、図9及び図10にはタッチセンサー6を図示していない。   The processing for displaying the image of the virtual input device described above will be specifically described with reference to FIGS. FIG. 9 shows a gesture operation for instructing activation of the virtual input device, and FIG. 10 shows the virtual input device 11 displayed in response to the gesture operation shown in FIG. Note that the touch sensor 6 is not shown in FIGS. 9 and 10 for easy understanding.

図9に示すように、ユーザーが表示面7aに対し同時に2か所をタッチして、所望の位置にポインター画像10を表示させた後、各タッチ位置T1、T2をスライドさせた結果、2か所のタッチ位置T1、T2間の距離Lが閾値Thを超えると、図10に示すように、表示面7aに仮想入力装置11(本実施形態では、仮想キーボード)の画像が表示される。実施形態2において、ポインター画像10の表示位置は、仮想入力装置11の画像が表示されることによって確定してもよいし、実施形態1と同様に、2か所のタッチのうちの少なくとも一方が検知されなくなることによって確定してもよい。   As shown in FIG. 9, after the user touches two places on the display surface 7a at the same time to display the pointer image 10 at a desired position, each of the touch positions T1 and T2 is slid. When the distance L between the touch positions T1 and T2 exceeds the threshold Th, an image of the virtual input device 11 (in this embodiment, a virtual keyboard) is displayed on the display surface 7a as shown in FIG. In the second embodiment, the display position of the pointer image 10 may be determined by displaying the image of the virtual input device 11, and as in the first embodiment, at least one of two touches is performed. You may decide by not being detected.

なお、仮想入力装置11の種類又はレイアウトは、特に限定されるものではい。例えば、仮想入力装置11として、いわゆる仮想フルキーボードが表示されてもよい。   Note that the type or layout of the virtual input device 11 is not particularly limited. For example, a so-called virtual full keyboard may be displayed as the virtual input device 11.

以上、実施形態2について説明した。実施形態2によれば、2か所のタッチ位置T1、T2間の距離Lが閾値Thを超えている場合に仮想入力装置11の画像が表示される。換言すると、ジェスチャー動作によって仮想入力装置11を起動させることができる。典型的には、ユーザーは、2か所のタッチ位置T1、T2を外側に向けてスライドさせることにより、仮想入力装置11を起動させることができる。したがって、ユーザーは、より直感的に仮想入力装置11を起動させることができる。   The second embodiment has been described above. According to the second embodiment, the image of the virtual input device 11 is displayed when the distance L between the two touch positions T1 and T2 exceeds the threshold Th. In other words, the virtual input device 11 can be activated by a gesture operation. Typically, the user can activate the virtual input device 11 by sliding the two touch positions T1 and T2 outward. Therefore, the user can start the virtual input device 11 more intuitively.

以上、本発明の実施形態について図面を参照しながら説明した。但し、本発明は、上記の実施形態に限られるものではなく、その要旨を逸脱しない範囲で種々の態様において実施することが可能である。   The embodiments of the present invention have been described above with reference to the drawings. However, the present invention is not limited to the above-described embodiment, and can be implemented in various modes without departing from the gist thereof.

例えば、本発明による実施形態では、電子写真方式の複合機を例に説明したが、本発明は、電子写真方式のコピー機や印刷機等の各種の画像形成装置に適用することができる。   For example, in the embodiments according to the present invention, an electrophotographic multifunction peripheral has been described as an example. However, the present invention can be applied to various image forming apparatuses such as an electrophotographic copying machine and a printing machine.

また、本発明は、電子写真方式の画像形成装置にのみ適用されるものではなく、インクジェット方式等の他の方式の画像形成装置にも適用することができる。   The present invention is not only applied to an electrophotographic image forming apparatus, but can also be applied to other types of image forming apparatuses such as an ink jet system.

また、本発明は画像形成装置にのみ適用されるものではなく、タッチパネルを備えるスマートフォン、携帯電話機、PC(Personal Computer)、PDA(Personal Data Assistant)、テレビジョン機等の各種の電子機器に適用可能である。   Further, the present invention is not only applied to the image forming apparatus, but can be applied to various electronic devices such as a smartphone, a mobile phone, a PC (Personal Computer Assistant), a PDA (Personal Data Assistant), a television set, and the like equipped with a touch panel. It is.

本発明は、タッチセンサー付きディスプレーを備えた様々な電子機器に応用することができる。   The present invention can be applied to various electronic devices including a display with a touch sensor.

1 操作パネル部
2 タッチパネル部
4 制御部
6 タッチセンサー
7 表示部
7a 表示面
9 文字画像
10 ポインター画像
100 画像形成装置
101 表示装置
T1、T2 タッチ位置
M 中間位置
DESCRIPTION OF SYMBOLS 1 Operation panel part 2 Touch panel part 4 Control part 6 Touch sensor 7 Display part 7a Display surface 9 Character image 10 Pointer image 100 Image forming apparatus 101 Display apparatus T1, T2 Touch position M Intermediate position

Claims (3)

表示面を有し、前記表示面に画像を表示する表示部と、
前記表示面に対するジェスチャー動作に対応する信号を生成するタッチセンサー部と、
前記タッチセンサー部が生成した前記信号に基づき、前記ジェスチャー動作に応じた前記画像を前記表示面に表示させる制御部と
を備え、
前記タッチセンサー部は、前記表示面に対して同時に2か所がタッチされる前記ジェスチャー動作に対応して、第1信号を生成し、
前記制御部は、
前記タッチセンサー部が前記第1信号を生成すると、前記2か所のタッチ位置の中間位置の座標を取得し、
前記中間位置の座標に基づき、前記中間位置に文字画像が表示されているか否かの判定を行い、
前記判定の結果、前記中間位置に前記文字画像が表示されている場合、前記文字画像の描画領域の境界のうち、テキスト入力画面のレイアウト方向における予め定められた側の前記境界にポインター画像を表示させ、
前記判定の結果、前記中間位置に前記文字画像が表示されていない場合、前記中間位置に前記ポインター画像を表示させ、
前記タッチセンサー部は、前記2か所のタッチ位置の少なくとも一方をスライドさせる前記ジェスチャー動作に対応して、第2信号を生成し、
前記制御部は
前記タッチセンサー部が前記第2信号を生成すると、前記2か所のタッチ位置の少なくとも一方のスライドに応じて変化する前記中間位置の座標を逐次取得して、前記ポインター画像の表示位置を変化させ
前記2か所のタッチ位置のうちの少なくとも一方が前記表示面から離れる前記ジェスチャー動作に応じて、前記ポインター画像の表示位置を確定する、表示装置。
A display unit having a display surface and displaying an image on the display surface;
A touch sensor unit that generates a signal corresponding to a gesture operation on the display surface;
A control unit that displays the image corresponding to the gesture motion on the display surface based on the signal generated by the touch sensor unit;
The touch sensor unit generates a first signal corresponding to the gesture operation in which two places are simultaneously touched on the display surface,
The controller is
When the touch sensor unit generates the first signal, the coordinates of the intermediate position of the two touch positions are acquired,
Based on the coordinates of the intermediate position, it is determined whether a character image is displayed at the intermediate position,
As a result of the determination, when the character image is displayed at the intermediate position, a pointer image is displayed at the boundary on the predetermined side in the layout direction of the text input screen among the boundaries of the drawing area of the character image. Let
If the character image is not displayed at the intermediate position as a result of the determination, the pointer image is displayed at the intermediate position;
The touch sensor unit generates a second signal in response to the gesture operation of sliding at least one of the two touch positions.
Wherein,
When the touch sensor unit generates the second signal, the coordinates of the intermediate position that changes according to the slide of at least one of the two touch positions are sequentially acquired, and the display position of the pointer image is changed. ,
Wherein at least one of the two touch positions according to the gesture motion away from the display surface, determine the display position of the pointer image display device.
前記制御部は、
前記2か所のタッチ位置間の距離と閾値との比較を行い、
前記比較の結果、前記2か所のタッチ位置間の距離が前記閾値を超えている場合に、前記表示面に仮想入力装置の画像を表示させる、請求項に記載の表示装置。
The controller is
Compare the distance between the two touch positions and the threshold,
Result of the comparison, when the distance between the two touch positions exceeds the threshold, to display an image of a virtual input device on the display surface, the display device according to claim 1.
請求項1又は請求項2に記載の表示装置を備えた画像形成装置。 An image forming apparatus comprising the display device according to claim 1 .
JP2015197838A 2015-10-05 2015-10-05 Display device and image forming apparatus having the same Expired - Fee Related JP6418119B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015197838A JP6418119B2 (en) 2015-10-05 2015-10-05 Display device and image forming apparatus having the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015197838A JP6418119B2 (en) 2015-10-05 2015-10-05 Display device and image forming apparatus having the same

Publications (2)

Publication Number Publication Date
JP2017072904A JP2017072904A (en) 2017-04-13
JP6418119B2 true JP6418119B2 (en) 2018-11-07

Family

ID=58537658

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015197838A Expired - Fee Related JP6418119B2 (en) 2015-10-05 2015-10-05 Display device and image forming apparatus having the same

Country Status (1)

Country Link
JP (1) JP6418119B2 (en)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01318148A (en) * 1988-06-20 1989-12-22 Fuji Xerox Co Ltd Document preparing device
JP3867226B2 (en) * 2000-02-15 2007-01-10 株式会社 ニューコム Touch panel system that can be operated with multiple pointing parts
US8009146B2 (en) * 2007-06-28 2011-08-30 Nokia Corporation Method, apparatus and computer program product for facilitating data entry via a touchscreen
JP2009205304A (en) * 2008-02-26 2009-09-10 Ntt Docomo Inc Device and method for controlling touch panel, and computer program
JP5423593B2 (en) * 2010-06-23 2014-02-19 株式会社Jvcケンウッド Information processing device
US9092130B2 (en) * 2011-05-31 2015-07-28 Apple Inc. Devices, methods, and graphical user interfaces for document manipulation
JP2015141453A (en) * 2014-01-27 2015-08-03 シャープ株式会社 information display terminal

Also Published As

Publication number Publication date
JP2017072904A (en) 2017-04-13

Similar Documents

Publication Publication Date Title
US10198163B2 (en) Electronic device and controlling method and program therefor
EP2835731B1 (en) Image display apparatus, image display method, and image display program
KR101931850B1 (en) Information processing apparatus, method for controlling the same, and storage medium
US20110025718A1 (en) Information input device and information input method
JP2013250761A (en) Information processor, method for controlling information processor, and program
JP6142564B2 (en) Information display device and display control program
KR20190026707A (en) Information processing apparatus, method for controlling information processing apparatus, and storage medium
JP5628991B2 (en) Display device, display method, and display program
US11630565B2 (en) Image processing apparatus, control method for image processing apparatus, and recording medium for displaying a screen with inverted colors
JP2014086051A (en) Information processor, control method thereof, and program
US10691293B2 (en) Display device and computer-readable non-transitory recording medium with display control program stored thereon
US10416870B2 (en) Display control device and non-transitory computer-readable storage medium having program recorded thereon
JP2017157027A (en) Display device
JP6418119B2 (en) Display device and image forming apparatus having the same
JP6358223B2 (en) Display device and image forming apparatus having the same
JP2017084216A (en) Input processing apparatus and image forming apparatus including the same
JP6971573B2 (en) Electronic devices, their control methods and programs
JP6455466B2 (en) Display operation device and program
JP6220374B2 (en) Information processing apparatus, output character code determination method, and program
JP6210664B2 (en) Information processing apparatus, control method therefor, program, and storage medium
JP6661421B2 (en) Information processing apparatus, control method, and program
JP2010218122A (en) Information input device, object display method, and computer-executable program
JP2010026998A (en) Portable device, display control method, program, and recording medium
JP6230247B2 (en) Information input device and program
JP2019032706A (en) Display input device and image forming device including the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170726

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180330

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180417

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180613

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180821

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180831

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180911

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180924

R150 Certificate of patent or registration of utility model

Ref document number: 6418119

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees