WO2015045996A1 - 文字入力装置、文字入力プログラム及び画像形成装置 - Google Patents

文字入力装置、文字入力プログラム及び画像形成装置 Download PDF

Info

Publication number
WO2015045996A1
WO2015045996A1 PCT/JP2014/074629 JP2014074629W WO2015045996A1 WO 2015045996 A1 WO2015045996 A1 WO 2015045996A1 JP 2014074629 W JP2014074629 W JP 2014074629W WO 2015045996 A1 WO2015045996 A1 WO 2015045996A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
character
display
contact
image
Prior art date
Application number
PCT/JP2014/074629
Other languages
English (en)
French (fr)
Inventor
浩平 小西
Original Assignee
京セラドキュメントソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 京セラドキュメントソリューションズ株式会社 filed Critical 京セラドキュメントソリューションズ株式会社
Priority to JP2015539143A priority Critical patent/JP6076488B2/ja
Publication of WO2015045996A1 publication Critical patent/WO2015045996A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03GELECTROGRAPHY; ELECTROPHOTOGRAPHY; MAGNETOGRAPHY
    • G03G15/00Apparatus for electrographic processes using a charge pattern
    • G03G15/50Machine control of apparatus for electrographic processes using a charge pattern, e.g. regulating differents parts of the machine, multimode copiers, microprocessor control
    • G03G15/5016User-machine interface; Display panels; Control console
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Definitions

  • the present invention relates to a character input device, a character input program, and an image forming apparatus.
  • Japanese Patent Application Laid-Open No. 2004-151561 discloses a technique that enables easy deletion of a character by tracing the character input on the touch panel with a finger.
  • Japanese Patent Application Laid-Open No. 2004-228561 discloses a technique that enables deletion for each word by dragging the word input on the touch panel.
  • the present invention has been made to solve the above-described problem, and an object of the present invention is to make it possible to delete an input character with a simpler operation than before.
  • a character input device includes a display unit, a contact detection unit, an image storage unit, a first display control unit, a detection unit, a second display control unit, and an instruction receiving unit. .
  • the display unit displays an image.
  • the contact detection unit detects a contact by an operator and a contact position on the display screen of the display unit.
  • the image storage unit stores a plurality of character images.
  • the first display control unit displays, on the display unit, a plurality of characters designated by the operator among the character images stored in the image storage unit.
  • the detection unit is configured such that when the contact at two points in the display area of the plurality of character images displayed on the display unit by the first display control unit is detected by the contact detection unit at the same time, It is detected whether or not the movement of the contact position with the passage of time for the contact indicates pinch-in.
  • the second display control unit does not display the character image displayed in the region sandwiched between the initial contact positions detected by the contact detection unit.
  • the adjacent character image displayed adjacent to the area is moved to the area and displayed.
  • the instruction receiving unit receives an input of a deletion instruction for deleting an input of a character indicated by the non-displayed character image.
  • An image forming apparatus includes the character input device and an image forming unit.
  • the image forming unit forms an image on a recording medium.
  • a character input program includes a computer, the contact detection unit, the image storage unit, the first display control unit, the detection unit, the second display control unit, and the instruction. It functions as a reception unit.
  • the present invention when an operator deletes an input character, if a pinch-in operation is performed in the display area of the character image to be deleted among the character images displayed on the display unit, the operator is sandwiched by the pinch-in. Since it is possible to input an instruction to delete the character indicated by the character image displayed in the area, the operation required when deleting the input character becomes easier than before.
  • FIG. 1 is a front sectional view showing a structure of an image forming apparatus including a character input device according to an embodiment of the present invention.
  • FIG. 2 is a functional block diagram schematically showing the main internal configuration of the image forming apparatus.
  • FIG. 3 is a flowchart showing the flow of character input processing by the image forming apparatus.
  • FIG. 4 is a diagram illustrating an example of a display screen of the display unit.
  • FIG. 5 is a diagram illustrating an example of a display screen of the display unit.
  • FIG. 6 is a diagram illustrating an example of a display screen of the display unit.
  • FIG. 7 is a diagram illustrating an example of a display screen of the display unit.
  • FIG. 8 is a diagram illustrating an example of a display screen of the display unit.
  • FIG. 1 is a front sectional view showing a structure of an image forming apparatus including a character input device according to an embodiment of the present invention.
  • FIG. 2 is a functional block diagram schematically showing the main internal
  • FIG. 9 is a diagram illustrating an example of a display screen of the display unit.
  • FIG. 10 is a diagram illustrating an example of a display screen of the display unit.
  • FIG. 11 is a diagram illustrating an example of a display screen of the display unit.
  • FIG. 12 is a diagram illustrating an example of a display screen of the display unit.
  • FIG. 13 is a diagram illustrating an example of a display screen of the display unit.
  • FIG. 14 is a diagram illustrating an example of a display screen of the display unit.
  • FIG. 15 is a diagram illustrating an example of a display screen of the display unit.
  • FIG. 16 is a diagram illustrating an example of a display screen of the display unit.
  • FIG. 17 is a diagram illustrating an example of the display screen of the display unit.
  • FIG. 1 is a front sectional view showing a structure of an image forming apparatus including a character input device according to an embodiment of the present invention.
  • the image forming apparatus 1 is a multifunction machine having a plurality of functions such as a copy function, a printer function, a scanner function, and a facsimile function.
  • the image forming apparatus 1 is configured to include an operation unit 47, an image forming unit 12, a fixing unit 13, a paper feeding unit 14, a document feeding unit 6, a document reading unit 5, and the like in an apparatus main body 11A.
  • the operation unit 47 receives instructions such as an image forming operation execution instruction and a document reading operation execution instruction from the operator regarding various operations and processes that can be executed by the image forming apparatus 1.
  • the operation unit 47 includes a display unit 473 that displays operation guidance to the operator.
  • the document reading unit 5 optically processes a document fed by the document feeding unit 6 or a document placed on a contact glass (document placing glass) 161. Read and generate image data.
  • Image data generated by the document reading unit 5 is stored in a built-in HDD or a network-connected computer.
  • the image forming unit 12 forms a toner image on a recording sheet P as a recording medium fed from the sheet feeding unit 14 based on the image data and the like.
  • the image forming units 12M, 12C, 12Y, and 12Bk of the image forming unit 12 include a photosensitive drum, a developing device 122 that supplies toner to the photosensitive drum, a toner cartridge (not shown) that stores toner, and a charging device. 123, an exposure device 124, and a primary transfer roller 126, respectively.
  • the paper feed unit 14 includes a plurality of paper feed cassettes.
  • the control unit (not shown) rotates the pickup roller 145 of the paper feed cassette in which the recording paper of the size specified by the instruction from the operator is rotated, so that the recording paper P stored in each paper feed cassette is loaded. It is conveyed toward the nip portion N.
  • the magenta image forming unit 12M, the cyan image forming unit 12C, the yellow image forming unit 12Y, and the black image forming unit 12Bk of the image forming unit 12 each receive image data.
  • a toner image is formed on the photosensitive drum 121 by charging, exposure, and development processes based on the image composed of each color component, and the toner image is driven by the primary transfer roller 126 by the driving roller 125a and the driven roller 125b.
  • the image is transferred onto the intermediate transfer belt 125 that is stretched around the belt.
  • the intermediate transfer belt 125 is driven by a driving roller 125 a in a state where an image carrying surface on which a toner image is transferred is set on the outer circumferential surface and is in contact with the circumferential surface of the photosensitive drum 121.
  • the intermediate transfer belt 125 travels endlessly between the driving roller 125a and the driven roller 125b while being synchronized with each photosensitive drum 121.
  • the toner images of the respective colors transferred onto the intermediate transfer belt 125 are superimposed on the intermediate transfer belt 125 with the transfer timing adjusted to become a color toner image.
  • the secondary transfer roller 210 receives a color toner image formed on the surface of the intermediate transfer belt 125 from the paper supply unit 14 at a nip N between the intermediate transfer belt 125 and the driving roller 125a as an opposing roller.
  • the conveyance path 190 is transferred to the recording paper P that has been conveyed.
  • the fixing unit 13 fixes the toner image on the recording paper P to the recording paper P by thermocompression bonding.
  • the recording paper P on which the color image has been formed after completion of the fixing process is discharged to a discharge tray 151.
  • FIG. 2 is a functional block diagram schematically showing the main internal configuration of the image forming apparatus 1.
  • the image forming apparatus 1 includes a control unit 10.
  • the control unit 10 includes a CPU (Central Processing Unit), a RAM, a ROM, a dedicated hardware circuit, and the like, and controls overall operation of the image forming apparatus 1.
  • CPU Central Processing Unit
  • RAM Random Access Memory
  • ROM Read Only Memory
  • dedicated hardware circuit and the like, and controls overall operation of the image forming apparatus 1.
  • the control unit 10 includes a document reading unit 5, an image processing unit 31, an image memory 32, a paper transport unit 411, an image forming unit 12, an operation unit 47, a facsimile communication unit 71, a network interface unit 91, an HDD (hard disk drive) 81, and the like. Connected with.
  • the control unit 10 performs operation control of each of the connected mechanisms and transmits / receives a signal or data to / from each mechanism.
  • the control unit 10 includes a control unit 100 that controls the overall operation of the image forming apparatus 1 described above.
  • the control unit 100 controls the operation of each function of the scanner function, printer function, copy function, and facsimile function in accordance with a job execution instruction input from the user (operator) through the operation unit 47 or a personal computer connected via a network.
  • the driving and processing of each mechanism necessary for executing the above are controlled.
  • the document reading unit 5 includes a scanner unit 51 including the above-described reading mechanism 163 having an image irradiation lamp 511 and a CCD (Charge Coupled Device) sensor 512.
  • the document reading unit 5 irradiates the document with the image irradiation lamp 511 and receives the reflected light with the CCD sensor 512 to read the image from the document.
  • CCD Charge Coupled Device
  • the image processing unit 31 performs image processing on the image data of the image read by the document reading unit 5 as necessary. For example, the image processing unit 31 performs predetermined image processing in order to improve the quality after the image read by the document reading unit 5 is formed by the image forming unit 12.
  • the image memory 32 stores the image data read by the document reading unit 5 and the like.
  • the paper transport unit 411 includes the pickup roller 145 and the transport roller 192 shown in FIG. 1, and records the recording paper stored in the manual feed tray 141 and the paper feed cassettes 142 and 143 to the image forming unit 12 and the discharge tray 151. Transport.
  • the image forming unit 12 includes the image forming units 12M, 12C, 12Y, and 12Bk, the intermediate transfer belt 125 stretched around the drive roller 125a, and the secondary transfer roller 210.
  • Image data to be output by the image forming unit 12 is transmitted from image data read by the document reading unit 5, image data transmitted from a client computer or the like in the local area via the network interface unit 91, and the like. Image data.
  • the operation unit 47 includes a touch panel unit 102 and operation key units that receive instructions from a user (operator) for various operations and processes that can be executed by the image forming apparatus 1.
  • the touch panel unit (contact detection unit) 102 is provided in a display portion of the display unit 473 provided in the operation unit 47, and detects contact by the operator on the display screen of the display unit 473 together with the contact position (coordinate position). When the touch panel unit 102 detects the contact by the operator, the touch panel unit 102 outputs a detection signal indicating the contact position to the detection unit 105 described later.
  • the facsimile communication unit 71 includes an unillustrated encoding / decoding unit, modulation / demodulation unit, and NCU (Network Control Unit), and performs facsimile transmission using a public telephone network. For example, the facsimile communication unit 71 transmits image data of a document read by the document reading unit 5 to a facsimile device or the like via a telephone line, or receives image data transmitted from the facsimile device or the like.
  • NCU Network Control Unit
  • the HDD (image storage unit) 81 stores image data read by the document reading unit 5 and the like.
  • the image data stored in the HDD 81 can be used for image formation by the image forming unit 12.
  • the HDD 81 stores a character image to be displayed on the display unit 473.
  • the network interface unit 91 includes a communication module such as a LAN board, and transmits / receives various data to / from a device (such as a personal computer) in a local area via a LAN connected to the network interface unit 91.
  • a communication module such as a LAN board
  • the control unit 10 further includes a display control unit 103, a character input receiving unit 104, a detecting unit 105, and an instruction receiving unit 106.
  • the control unit 10 is operated by a CPU according to a character input program according to an embodiment of the present invention stored in a built-in memory, ROM, or HDD 81, so that a display control unit 103, a character input reception unit 104, and a detection unit 105. And functions as an instruction receiving unit 106.
  • the display control unit 103, the character input reception unit 104, the detection unit 105, and the instruction reception unit 106 are provided with dedicated hardware circuits and the like, so that the display control unit 103, the character input reception unit 104, and the detection unit 105 are provided. Also, it may function as the instruction receiving unit 106.
  • the display control unit 103 manages display control of the display unit 473.
  • the display control unit 103 includes a first display control unit 1031 and a second display control unit 1032.
  • the first display control unit 1031 causes the display unit 473 to display a plurality of characters specified by the operator using the character input receiving unit 104 among the character images stored in the HDD 81.
  • the character designation operation by the operator is performed by a software keyboard displayed on the display unit 473 and contact by the operator using the touch panel unit 12 and detection of the contact position.
  • the second display control unit 1032 switches between display and non-display of the character image displayed on the display unit 473 by the first display control unit 1031 based on the pinch-in and pinch-out operations detected by the detection unit 105.
  • the character input receiving unit 104 receives input of characters specified by the operator.
  • the character input receiving unit 104 receives an instruction to input a character specified by the operation of the software keyboard by the operator and the detection by the touch panel unit 12.
  • the detection unit 105 detects each contact. It is detected whether the movement of the contact position with the passage of time indicates pinch-in and pinch-out.
  • the touch panel unit 102 When the operator slides the finger on the display screen with the finger touching the display screen of the display unit 473, the touch panel unit 102 outputs a detection signal indicating each moving position to the detection unit 105.
  • the touch panel unit 102 detects contact with each of the plurality of locations and outputs a detection signal indicating the contact position to the detection unit 105 or the like.
  • the detection unit 105 determines a direction in which the plurality of contacts move on the display screen.
  • the detection unit 105 detects, for example, (1) pinch-in when the movement direction of the contact position (coordinate position) indicating two contacts moves toward each other, and (2) the contact position (coordinates) indicating two contacts. If the movement direction of the (position) moves away from each other, it is detected as a pinch out.
  • the detection method of pinch in and pinch out is not restricted to this. A known technique can be used to detect the pinch-in and pinch-out.
  • the second display control unit 1032 hides the character image displayed in the area sandwiched between the two touch points detected by the touch panel unit 102, The adjacent character image displayed adjacent to the area is moved to the area and displayed.
  • the second display control unit 1032 is not displayed when the detection unit 15 detects a pinch-out in the non-displayed area after the character image is not displayed based on the pinch-in.
  • the character image and the adjacent character image are redisplayed in the state before the pinch-in detection.
  • the instruction receiving unit 106 receives an input of a deletion instruction for deleting the input of the character indicated by the character image that has been hidden by the second display control unit 1032.
  • the instruction receiving unit 106 deletes the character indicated by the deletion instruction when the touch of the two points is no longer detected by the detection unit 105.
  • the instruction receiving unit 106 outputs, to the character input receiving unit 104, an instruction to cancel the input of the character indicated by the deletion instruction when the contact of the two points is no longer detected, and the character input receiving unit 104 receives the character The above character deletion is performed by canceling the input.
  • a character input device includes, for example, the display unit 473, the touch panel unit (contact detection unit) 102, a first display control unit 1031, a second display control unit 1032, a detection unit 105, and an instruction reception unit. 106, and an HDD (image storage unit) 81.
  • FIG. 3 is a flowchart showing the flow of character input processing by the image forming apparatus 1.
  • 4 to 10 are diagrams showing examples of display screens of the display unit 473.
  • FIG. 3 is a flowchart showing the flow of character input processing by the image forming apparatus 1.
  • the first display control unit 1031 of the image forming apparatus 1 performs the data storage function of the image forming apparatus 1 when the operator inputs the title of the stored document, as shown in FIG.
  • the character input screen D1 is displayed on the display unit 473.
  • the operator inputs a desired character by operating the software keyboard displayed on the display screen or the numeric keypad of the operation unit 47.
  • the first display control unit 1031 displays the input character in the input character display field d12 of the character input screen D1, as shown in FIG.
  • the character input in the present invention is not intended to be limited to this example (hereinafter the same).
  • the second display control unit 1032 For each of the two contact points indicating pinch-in, the initial position at which contact is first made is obtained from the detection unit 105 (S2), and the final position (movement final position) at which the movement is completed is obtained (S3). ).
  • the detection unit 105 accompanies the passage of time from the contact position (initial position) at the first contact point when the operator touches the display screen of the display unit 473 based on information indicating the contact position acquired from the touch panel unit 102.
  • Each contact position is stored up to the final movement position where movement with time has stopped.
  • the movement final position is simply referred to as the final position.
  • the detection unit 105 outputs information indicating the initial position and the final position to the second display control unit 1032.
  • the second display control unit 1032 determines the character image displayed in the area sandwiched between the initial position and the final position (S4). For example, the second display control unit 1032 determines a character image displayed in an area that reaches a straight line connecting the initial position and the final position. The second display control unit 1032 stops displaying the determined character image on the display unit 473 and hides it, and moves the adjacent character image displayed adjacent to the region to the region and displays it. (S5).
  • the instruction receiving unit 106 determines a character indicated by the determined character image (S6), and receives an instruction to delete each determined character (S7).
  • the characters a, b, c, d, e, f, g, h, i, j, k, l, m, n are input by the operator in the above character input operation.
  • Display control unit 1031 displays character images “a”, “b”, “c”, “d”, “e”, “f”, “g”, “h”, “i”, “j”, “k”, and “l”. A case where “m” and “n” are displayed side by side on the display unit 473 will be described.
  • the characters that the operator wants to delete are the characters e, f, g, h, i, the operator holds the display area of the character image indicating the characters to be deleted with the thumb and the index finger. Contact.
  • the operator places the thumb and index finger in one end portion (character image “ e ”display area) and the other end (display area of the character image“ i ”) and the character images“ e ”,“ f ”,“ g ”,“ h ”, and“ i ”indicating the characters to be deleted. Insert the character image group with both fingers. From this state, when the operator moves the finger and the forefinger in the direction in which the fingers approach each other while keeping the thumb and index finger in contact with the display screen, the touch panel unit 102 and the detection unit 105 are used to change the contact position of each finger. Pinch-in is detected.
  • the second display control unit 1032 causes the character image displayed in the area sandwiched between the initial position where the thumb touches and the final position where the movement has ended, and the index finger to touch The character image displayed in the area sandwiched between the initial position to be moved and the final position after the movement is determined, and the determined character images are not displayed as shown in FIG.
  • the second display control unit 1032 displays the adjacent character images “a”, “b”, “c”, “d” and the adjacent character images “j” displayed adjacent to the area. At least one of “k”, “l”, “m”, and “n” is moved to the non-displayed area and displayed.
  • the display control of the adjacent character image is performed at the time of processing for not displaying the character image based on the pinch-in described below.
  • the instruction receiving unit 106 receives an instruction to delete the characters indicated by the non-displayed character images.
  • the operator By performing display control in this manner, the operator has a common feeling of moving the fingers in a direction to bring them closer to each other by pinch-in and a feeling that the displayed character image sandwiched by pinch-in is not hidden.
  • the operator can have the feeling of erasing the character image with his / her finger and deleting the input of the character indicated by the character image, leading to an improvement in operational feeling.
  • the operator is in contact with the display screen (YES in S8), so that the contact position of the thumb and forefinger is away from the final position, for example, in the arrangement direction of the character images as shown in FIG.
  • the second display control unit 1032 displays each of the two contact points indicating the pinch out.
  • An initial position is acquired from the detection unit 105 (S10), and each final position is acquired (S11).
  • the second display control unit 1032 determines the character image displayed before the non-display in S5 in the area sandwiched between the initial position and the final position (S12). For example, the second display control unit 1032 determines the character image displayed in the area that approaches the straight line connecting the initial position and the final position. The second display control unit 1032 redisplays the determined character image on the display unit 473 as shown in FIG. 10 (S13). At this time, as shown in FIG. 10, the second display control unit 1032 displays at least one of the adjacent character images displayed adjacent to both sides of the region as much as the display region of the character image to be redisplayed. Move and display text images in the line-up direction. The display control of the adjacent character image is performed during the process of redisplaying the character image based on the pinch-out after the pinch-in shown below.
  • the instruction receiving unit 106 cancels the deletion instruction received in S7 for the characters indicated by the redisplayed character image (S14).
  • the instruction The receiving unit 106 receives the information indicating the non-contact from the touch panel unit 102, and deletes the input of the character for which the deletion instruction is received (S16). Note that the instruction receiving unit 106 does not delete the character input for the characters for which the character deletion instruction has been canceled by the redisplay (S13, S14). That is, as shown in the example of FIG. 11, the character image that is the target of the non-display (S5) or the re-display (S13), and each character image displayed on the display unit 473 at this time is shown. The character input or deletion is confirmed (NO in S15, S16).
  • FIG. 11 shows a state in which deletion of the characters g, h, and i is confirmed and input of the characters e and f is confirmed by the pinch-in and pinch-out.
  • the operator feels that the operation feeling of moving the fingers away from each other by pinching out and the feeling that the non-displayed character image is displayed again, that is, the displayed character image is displayed. You will get a sense of being restored according to your finger movements. As a result, the operator can perform the character input operation with the feeling that the display of the character image can be restored with his / her finger and the input and deletion of the character indicated by the character image can be changed. It leads to improvement.
  • the display control unit 103 does not change the display even if the operator pinches out in the display area of each character image (see FIG. 13). However, when the operator pinches in the display area of the character image, the process from S1 is started.
  • the second display control unit 1032 displays the two contact points constituting the pinch-in and pinch-out.
  • the display and non-display of the character image are switched in the area sandwiched between the initial position and the final position.
  • the operator performs the pinch-out without releasing the contact from the display screen, and accordingly, the character image that has been hidden by the second display control unit 1032 is displayed again. 14 (see FIG. 10), as shown in the example of FIG. 14, when the operator further moves the index finger on the right side in FIG.
  • the character image “h” displayed between the initial position of the contact position at the start of further pinch-out, for example, from the initial position of contact with the index finger shown in FIG. 10 to the final position of movement with the index finger shown in FIG. Is further redisplayed by the second display control unit 1032.
  • the instruction receiving unit 106 displays the character indicated by the non-displayed character image in accordance with the non-display of the character image by the second display control unit 1032 shown in FIGS.
  • a deletion instruction is accepted, and an input instruction is accepted for the character indicated by the re-displayed character image as the character image is re-displayed by the second display control unit 1032.
  • the present invention is not limited to the configuration of the above embodiment, and various modifications can be made.
  • the display and non-display of the character image displayed in the area sandwiched between the initial position and the final position of the two contact points constituting the second touch point are displayed.
  • the display control unit 1032 switches, and the instruction receiving unit 106 receives a character deletion instruction and an input instruction indicated by the character image in accordance with switching between display and non-display of the character image.
  • the second display control unit 1032 may perform display control so as not to display the character image displayed in the region sandwiched between the initial positions of the two contact points constituting these.
  • the second display control unit 1032 may perform display control to display again the character image that is originally displayed on the display unit 473 and is not displayed based on the pinch-in.
  • the image forming apparatus is not limited to the above, and may be a copier, a facsimile apparatus, a scanner apparatus, or the like.
  • the character input device according to the present invention can be widely applied not only to image forming apparatuses but also to other electronic devices, medical devices, mobile communication terminals, and the like.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • User Interface Of Digital Computer (AREA)
  • Input From Keyboards Or The Like (AREA)

Abstract

 画像形成装置1は、第1表示制御部によって表示部473に表示されている複数の文字画像の表示領域においてタッチパネル部102及び検出部105が操作者によるピンチインを検出したとき、第2表示制御部1032が、当該ピンチインを構成する2点の接触の初期位置で挟まれた領域に表示されている文字画像を非表示とし、当該領域に隣接して表示されている隣接文字画像を当該領域に移動させて表示する。指示受付部106は、当該非表示とされた文字画像の示す文字の入力を削除する削除指示の入力を受け付ける。

Description

文字入力装置、文字入力プログラム及び画像形成装置
 本発明は、文字入力装置、文字入力プログラム及び画像形成装置に関する。
 携帯端末等の電子機器では、タッチパネルデバイスの普及に伴い、操作者がタッチパネルを用いて文字を入力する機会が増加している。また、携帯端末等に限らず、画像形成装置においても、保存文書のタイトル入力等の場面で、表示部においてソフトウェアキーボードを用いた文字入力が採用されている。このソフトウェアキーボードにおいて、(1)入力し易い、(2)入力ミスを生じにくい等の操作性は重要な要素である。下記特許文献1には、タッチパネル上に入力された文字を指でなぞることにより容易にその文字の削除を可能とする技術が示されている。また、下記特許文献2には、タッチパネル上で入力した単語をドラッグすることによりその単語毎に削除を可能にする技術が示されている。
特開平1-142970号公報 特開2012-141663号公報
 上記各特許文献に示される先行技術によれば、入力した文字を削除する操作を支援できるが、このような文字削除の操作性については、更なる改善が求められている。今日では、タッチパネル利用時の操作性を容易にするために、例えばユーザーによる直感的な操作で指示の入力を可能にすることが望まれている。
 本発明は、上記の問題を解決するためになされたものであり、入力した文字の削除を従来よりも更に簡単な操作で可能にすることを目的とする。
 本発明の一局面に係る文字入力装置は、表示部と、接触検知部と、画像記憶部と、第1表示制御部と、検出部と、第2表示制御部と、指示受付部とを備える。
 前記表示部は、画像を表示する。
 前記接触検知部は、前記表示部の表示画面上における操作者による接触及びその接触位置を検知する。
 前記画像記憶部は、複数の文字画像を記憶する。
 前記第1表示制御部は、前記画像記憶部に記憶された前記文字画像のうち、操作者から入力が指定された複数の文字を並べて前記表示部に表示させる。
 前記検出部は、前記第1表示制御部によって前記表示部に表示されている複数の前記文字画像の表示領域における2点での接触が同時期に前記接触検知部によって検知されたとき、当該各接触についての時間経過に伴う接触位置の移動がピンチインを示すか否かを検出する。
 前記第2表示制御部は、前記検出部によりピンチインが検出されたとき、前記接触検知部により検出された前記2点の接触の初期位置で挟まれた領域に表示されている文字画像を非表示とし、当該領域に隣接して表示されている隣接文字画像を当該領域に移動させて表示する。
 前記指示受付部は、前記非表示とされた文字画像の示す文字の入力を削除する削除指示の入力を受け付ける。
 本発明の一局面に係る画像形成装置は、前記文字入力装置と、画像形成部とを備える。
 前記画像形成部は、記録媒体に画像を形成する。
 本発明の一局面に係る文字入力プログラムは、コンピューターを、前記接触検知部と、前記画像記憶部と、前記第1表示制御部と、前記検出部と、前記第2表示制御部と、前記指示受付部として機能させる。
 本発明によれば、操作者が、入力した文字を削除するときに、表示部に表示されている文字画像のうち、削除したい文字画像の表示領域においてピンチイン操作を行うと、当該ピンチインにより挟まれた領域に表示されている文字画像が示す文字を削除する指示を入力できるので、入力した文字を削除する際に要する操作が従来よりも簡単になる。
図1は、本発明の一実施形態に係る文字入力装置を備える画像形成装置の構造を示す正面断面図である。 図2は、画像形成装置の主要内部構成を概略的に示す機能ブロック図である。 図3は、画像形成装置による文字入力処理の流れを示すフローチャートである。 図4は、表示部の表示画面の一例を示す図である。 図5は、表示部の表示画面の一例を示す図である。 図6は、表示部の表示画面の一例を示す図である。 図7は、表示部の表示画面の一例を示す図である。 図8は、表示部の表示画面の一例を示す図である。 図9は、表示部の表示画面の一例を示す図である。 図10は、表示部の表示画面の一例を示す図である。 図11は、表示部の表示画面の一例を示す図である。 図12は、表示部の表示画面の一例を示す図である。 図13は、表示部の表示画面の一例を示す図である。 図14は、表示部の表示画面の一例を示す図である。 図15は、表示部の表示画面の一例を示す図である。 図16は、表示部の表示画面の一例を示す図である。 図17は、表示部の表示画面の一例を示す図である。
 以下、本発明の一実施形態に係る文字入力装置、文字入力プログラム及び画像形成装置について図面を参照して説明する。図1は、本発明の一実施形態に係る文字入力装置を備える画像形成装置の構造を示す正面断面図である。
 本発明の一実施形態に係る画像形成装置1は、例えば、コピー機能、プリンター機能、スキャナー機能、及びファクシミリ機能のような複数の機能を兼ね備えた複合機である。画像形成装置1は、装置本体11Aに、操作部47、画像形成部12、定着部13、給紙部14、原稿給送部6、及び原稿読取部5等を備えて構成されている。
 操作部47は、画像形成装置1が実行可能な各種動作及び処理について操作者から画像形成動作実行指示や原稿読取動作実行指示等の指示を受け付ける。操作部47は、操作者への操作案内等を表示する表示部473を備えている。 画像形成装置1が原稿読取動作を行う場合、原稿給送部6により給送されてくる原稿、又はコンタクトガラス(原稿載置ガラス)161に載置された原稿の画像を原稿読取部5が光学的に読み取り、画像データを生成する。原稿読取部5により生成された画像データは内蔵HDD又はネットワーク接続されたコンピューター等に保存される。
 画像形成装置1が画像形成動作を行う場合は、上記原稿読取動作により生成された画像データ、又はネットワーク接続されたコンピューターやスマートフォン等のユーザー端末装置から受信した画像データ、又は内蔵HDDに記憶されている画像データ等に基づいて、画像形成部12が、給紙部14から給紙される記録媒体としての記録紙Pにトナー像を形成する。画像形成部12の画像形成ユニット12M、12C、12Y、及び12Bkは、感光体ドラムと、感光体ドラムへトナーを供給する現像装置122と、トナーを収容するトナーカートリッジ(不図示)と、帯電装置123と、露光装置124と、1次転写ローラー126とをそれぞれ備えている。
 給紙部14は、複数の給紙カセットを備える。制御部(不図示)は、操作者による指示で指定されたサイズの記録紙が収容された給紙カセットのピックアップローラー145を回転駆動させて、各給紙カセットに収容されている記録紙Pを上記ニップ部Nに向けて搬送させる。
 カラー印刷を行う場合、画像形成部12のマゼンタ用の画像形成ユニット12M、シアン用の画像形成ユニット12C、イエロー用の画像形成ユニット12Y及びブラック用の画像形成ユニット12Bkは、それぞれに、画像データを構成するそれぞれの色成分からなる画像に基づいて、帯電、露光及び現像の工程により感光体ドラム121上にトナー像を形成し、トナー像を1次転写ローラー126により、駆動ローラー125a及び従動ローラー125bに張架されている中間転写ベルト125上に転写させる。
 中間転写ベルト125は、その外周面にトナー像が転写される像担持面が設定され、感光体ドラム121の周面に当接した状態で駆動ローラー125aによって駆動される。中間転写ベルト125は、各感光体ドラム121と同期しながら、駆動ローラー125aと従動ローラー125bとの間を無端走行する。
 中間転写ベルト125上に転写される各色のトナー画像は、転写タイミングを調整して中間転写ベルト125上で重ね合わされ、カラーのトナー像となる。2次転写ローラー210は、中間転写ベルト125の表面に形成されたカラーのトナー像を、中間転写ベルト125を挟んで、対向ローラとしての駆動ローラー125aとのニップ部Nにおいて、給紙部14から搬送路190を搬送されてきた記録紙Pに転写させる。この後、定着部13が、記録紙P上のトナー像を熱圧着により記録紙Pに定着させる。定着処理の完了したカラー画像形成済みの記録紙Pは、排出トレイ151に排出される。
 次に、画像形成装置1の電気的構成を説明する。図2は画像形成装置1の主要内部構成を概略的に示す機能ブロック図である。
 画像形成装置1は、制御ユニット10を備える。制御ユニット10は、CPU(Central Processing Unit)、RAM、ROM及び専用のハードウェア回路等から構成され、画像形成装置1の全体的な動作制御を司る。
 制御ユニット10は、原稿読取部5、画像処理部31、画像メモリー32、用紙搬送部411、画像形成部12、操作部47、ファクシミリ通信部71、ネットワークインターフェイス部91、HDD(ハードディスクドライブ)81等と接続されている。制御ユニット10は、接続されている上記各機構の動作制御や、各機構との間での信号又はデータの送受信を行う。
 制御ユニット10は、上述した画像形成装置1の全体的な動作制御を司る制御部100を備える。制御部100は、ユーザー(操作者)から操作部47又はネッワーク接続されたパーソナルコンピューター等を通じて入力されるジョブの実行指示に従って、スキャナー機能、プリンター機能、コピー機能及びファクシミリ機能の各機能についての動作制御を実行するために必要な各機構部の駆動及び処理を制御する。
 原稿読取部5は、画像照射ランプ511及びCCD(電荷結合素子:Charge Coupled Device)センサー512を有する上記の読取機構163からなるスキャナー部51を備える。原稿読取部5は、画像照射ランプ511により原稿を照射し、その反射光をCCDセンサー512で受光することにより、原稿から画像を読み取る。
 画像処理部31は、原稿読取部5で読み取られた画像の画像データを必要に応じて画像処理する。例えば、画像処理部31は、原稿読取部5により読み取られた画像が画像形成部12により画像形成された後の品質を向上させるために、予め定められた画像処理を行う。
 画像メモリー32は、上記原稿読取部5で読み取られた画像データ等を記憶する。
 用紙搬送部411は、図1に示したピックアップローラー145及び搬送ローラー192等から構成され、手差しトレイ141,給紙カセット142,143に収納されている記録紙を画像形成部12及び排出トレイ151まで搬送する。
 画像形成部12は、上述したように、画像形成ユニット12M、12C、12Y、12Bkと、駆動ローラー125aに張架された中間転写ベルト125と、2次転写ローラー210とを備えている。画像形成部12による出力対象となる画像データは、原稿読取部5で読み取られた画像データ、ネットワークインターフェイス部91を介してローカルエリア内のクライアントコンピューター等から送信されてきた画像データ等から送信されてきた画像データ等である。
 操作部47は、画像形成装置1が実行可能な各種動作及び処理についてユーザー(操作者)からの指示を受け付けるタッチパネル部102及び操作キー部を備える。タッチパネル部(接触検知部)102は、操作部47が備える表示部473のディスプレイ部分に設けられており、表示部473の表示画面上における操作者による接触を接触位置(座標位置)と共に検知する。タッチパネル部102は、操作者による当該接触を検知すると、当該接触位置を示す検知信号を、後述する検出部105等に出力する。
 ファクシミリ通信部71は、図略の符号化/復号化部、変復調部及びNCU(Network Control Unit)を備え、公衆電話回線網を用いてのファクシミリの送信を行うものである。ファクシミリ通信部71は、例えば原稿読取部5によって読み取られた原稿の画像データを、電話回線を介してファクシミリ装置等へ送信したり、ファクシミリ装置等から送信された画像データを受信する。
 HDD(画像記憶部)81は、原稿読取部5によって読み取られた画像データ等を記憶する。HDD81に記憶されている画像データは、画像形成部12による画像形成に用いることが可能である。また、HDD81は、表示部473に表示させる文字画像を記憶している。
 ネットワークインターフェイス部91は、LANボード等の通信モジュールから構成され、当該ネットワークインターフェイス部91に接続されたLAN等を介して、ローカルエリア内の装置(パーソナルコンピューター等)と種々のデータの送受信を行う。
 また、制御ユニット10は、更に、表示制御部103、文字入力受付部104、検出部105及び指示受付部106を備えている。制御ユニット10は、内蔵するメモリー又はROM、或いはHDD81に記憶された本発明の一実施形態である文字入力プログラムに従ってCPUが動作することで、表示制御部103、文字入力受付部104、検出部105及び指示受付部106として機能する。或いは、表示制御部103、文字入力受付部104、検出部105及び指示受付部106に対応する専用のハードウェア回路等を備えることにより、当該表示制御部103、文字入力受付部104、検出部105及び指示受付部106として機能するようにしてもよい。
 表示制御部103は、表示部473の表示制御を司る。表示制御部103は、第1表示制御部1031及び第2表示制御部1032を備える。
 第1表示制御部1031は、HDD81に記憶されている文字画像のうち、操作者から文字入力受付部104により入力が指定された複数の文字を並べて表示部473に表示させる。操作者による文字の指定操作は、表示部473に表示されるソフトウェアキーボードと、タッチパネル部12による操作者による接触及びその接触位置の検出とにより行われる。
 第2表示制御部1032は、検出部105により検出されるピンチイン及びピンチアウトの操作に基づいて、第1表示制御部1031により表示部473に表示されている文字画像の表示及び非表示を切り換える。
 文字入力受付部104は、操作者により指定された文字の入力を受け付ける。文字入力受付部104は、操作者による上記ソフトウェアキーボードの操作及びタッチパネル部12による検出により指定された文字を入力する指示を受け付ける。
 検出部105は、第1表示制御部1031によって表示部473に表示されている複数の文字画像の表示領域における2点での接触が同時期にタッチパネル部102によって検知されたとき、当該各接触についての時間経過に伴う接触位置の移動がピンチイン及びピンチアウトを示すか否かを検出する。
 操作者が表示部473の表示画面上に指を接触させた状態で指を表示画面上でスライド移動させると、タッチパネル部102は、各移動位置を示す検知信号を検出部105に出力する。表示画面上において操作者が複数の箇所に接触している場合には、タッチパネル部102は、当該複数の箇所についてそれぞれ接触を検知し、上記接触位置を示す検知信号を検出部105等に出力する。検出部105は、当該複数の接触についてタッチパネル部102から上記接触位置を示す検知信号が同時期に送られてくると、上記複数の接触が表示画面上で移動する方向を判別する。検出部105は、例えば(1)2つの接触を示す接触位置(座標位置)の移動方向が互いに近付く方向に移動する場合は、ピンチインとして検出し、(2)2つの接触を示す接触位置(座標位置)の移動方向が互いに離れる方向に移動する場合は、ピンチアウトとして検出する。なお、ピンチイン及びピンチアウトの検出方法は、これに限られない。当該ピンチイン及びピンチアウトの検出については公知の技術を用いることが可能である。
 第2表示制御部1032は、検出部105によりピンチインが検出されたとき、タッチパネル部102により検出された2点の接触の初期位置で挟まれた領域に表示されている文字画像を非表示とし、当該領域に隣接して表示されている隣接文字画像を当該領域に移動させて表示する。また、第2表示制御部1032は、上記ピンチインに基づいて文字画像を非表示とした後、当該非表示とした領域において検出部15によりピンチアウトが検出されたとき、当該非表示とされていた文字画像及び隣接文字画像を上記ピンチイン検出前の状態で再表示する。
 指示受付部106は、第2表示制御部1032により非表示とされた文字画像の示す文字の入力を削除する削除指示の入力を受け付ける。指示受付部106は、検出部105により上記2点の接触がタッチパネル部102により検出されなくなったとき、上記削除指示により示される文字を削除する。例えば、指示受付部106が、上記2点の接触が検出されなくなったときに上記削除指示により示される文字の入力を取り消す指示を文字入力受付部104に出力し、文字入力受付部104に当該文字の入力を取り消させることにより、上記文字削除を行う。
 本発明の一実施形態に係る文字入力装置は、例えば、上記表示部473、タッチパネル部(接触検知部)102、第1表示制御部1031、第2表示制御部1032、検出部105、指示受付部106、及びHDD(画像記憶部)81を備えてなる。
 次に、画像形成装置1による文字入力処理を説明する。図3は画像形成装置1による文字入力処理の流れを示すフローチャートである。図4~図10は表示部473の表示画面の一例を示す図である。
 例えば、画像形成装置1の第1表示制御部1031は、当該画像形成装置1が備えるデータ保存機能の実行時に、操作者が保存文書のタイトル等を入力する場面等で、図4に示すような文字入力画面D1を表示部473に表示させる。操作者は、表示画面上に表示されるソフトキーボード、又は操作部47のテンキーの操作により、所望の文字を入力する。文字入力受付部104が当該入力された文字を受け付けると、第1表示制御部1031は、図5に例を示すように、当該入力された文字を文字入力画面D1の入力文字表示欄d12に表示させる。なお、本発明でいう文字入力をこの例に限定する趣旨ではない(以下、同じ)。
 この状態で、操作者が、表示部473の表示画面上において、入力した文字を示す文字画像「a」「b」「c」「d」「e」「f」「g」「h」「i」「j」「k」「l」「m」「n」のうち、削除したい文字を示す文字画像の表示領域において、例えば、図6に示すように、削除対象とする文字を示す文字画像「e」「f」「g」「h」「i」を示す表示領域においてピンチイン操作を行い、当該ピンチインをタッチパネル部102及び検出部105が検出すると(S1でYES)、第2表示制御部1032は、ピンチインを示す2点の接触点のそれぞれについて、最初に接触があった初期位置を検出部105から取得し(S2)、更に、移動が終了した最終位置(移動最終位置)を取得する(S3)。
 例えば、検出部105は、タッチパネル部102から取得する接触位置を示す情報に基づいて、操作者が表示部473の表示画面に触れた最初の接触時点における接触位置(初期位置)から時間経過に伴う各接触位置を、時間経過に伴う移動が停止した位置である移動最終位置まで記憶している。なお、以降は、当該移動最終位置を単に最終位置という。検出部105は、第2表示制御部1032に、当該初期位置及び最終位置を示す情報を出力する。
 続いて、第2表示制御部1032は、上記初期位置及び最終位置により挟まれた領域に表示されている文字画像を判別する(S4)。第2表示制御部1032は、例えば、上記初期位置及び最終位置を結ぶ直線に差し掛かる領域に表示されている文字画像を判別する。第2表示制御部1032は、当該判別した文字画像についての表示部473での表示を停止して非表示とし、当該領域に隣接して表示されている隣接文字画像を当該領域に移動させて表示する(S5)。
 そして、指示受付部106は、上記判別された文字画像が示す文字を判別し(S6)、当該判別した各文字を削除する指示を受け付ける(S7)。
 図6に例を示すように、上記文字入力操作で操作者により文字a,b,c,d,e,f,g,h,i,j,k,l,m,nが入力され、第1表示制御部1031が、当該各文字を示す文字画像「a」「b」「c」「d」「e」「f」「g」「h」「i」「j」「k」「l」「m」「n」を並べて表示部473に表示している場合を説明する。このとき、操作者が削除したい文字が文字e,f,g,h,iであるとき、操作者は、削除したい文字を示す当該文字画像の表示領域を親指及び人差し指で挟み込むようにして表示画面に接触させる。
 例えば、削除したい各文字を示す文字画像「e」「f」「g」「h」「i」の表示領域における、操作者が親指及び人差し指を当該文字画像の並び方向における一端部(文字画像「e」の表示領域)と他端部(文字画像「i」の表示領域)に接触させ、削除対象とする各文字を示す文字画像「e」「f」「g」「h」「i」の文字画像群を両指で挟み込む。この状態から、操作者が、親指及び人差し指を表示画面に接触させたまま、互いの指が近付く方向に移動させると、各指の接触位置の変化に基づいて、タッチパネル部102及び検出部105によりピンチインが検出される。このピンチインの検出に伴って、第2表示制御部1032は、親指が接触する初期位置と、移動が終了した最終位置とに挟まれた領域に表示されている文字画像と、更に、人差し指が接触する初期位置と、移動が終了した最終位置とに挟まれた領域に表示されている文字画像とを判別し、図7に示すように、判別したそれぞれの文字画像を非表示とする。このとき、図8に示すように、第2表示制御部1032は、当該領域に隣接して表示されている隣接文字画像「a」「b」「c」「d」及び隣接文字画像「j」「k」「l」「m」「n」の少なくとも一方を、当該非表示とした領域に移動させて表示する。当該隣接文字画像の表示制御は、以下に示すピンチインに基づいて文字画像を非表示とする処理時に行われる。
 そして、指示受付部106は、当該非表示とされた各文字画像の示す文字を削除する指示を受け付ける。
 このように表示制御を行うことにより、操作者は、ピンチインにより指を互いに近付ける方向に移動させる操作感と、ピンチインにより挟み込んだ表示中の文字画像が非表示とされてなくなる感覚が共通することにより、操作者に、自分の指で文字画像を消し、当該文字画像の示す文字の入力を削除するという感覚を持たせることができ、操作感の向上に繋がる。
 上記ピンチインの後、操作者が表示画面に接触したまま(S8でYES)、上記最終位置から親指及び人差し指の接触位置が互いに遠ざかるように、例えば図9に示すように、文字画像の並び方向に移動させてピンチアウト操作を行い、当該ピンチアウトをタッチパネル部102及び検出部105が検出すると(S9でYES)、第2表示制御部1032は、当該ピンチアウトを示す2点の接触点のそれぞれについて初期位置を検出部105から取得し(S10)、更に、それぞれの最終位置を取得する(S11)。
 そして、第2表示制御部1032は、上記初期位置及び最終位置により挟まれた領域に、上記S5で非表示とする前に表示していた文字画像を判別する(S12)。第2表示制御部1032は、例えば、上記初期位置及び最終位置を結ぶ直線に差し掛かかる領域に表示されていた文字画像を判別する。第2表示制御部1032は、図10に例を示すように、上記判別した文字画像を表示部473に再表示させる(S13)。このとき、図10に示すように、第2表示制御部1032は、当該領域の両側に隣接して表示されている隣接文字画像の少なくとも一方を、当該再表示される文字画像の表示領域分だけ文字画像の並び方向に移動させて表示する。当該隣接文字画像の表示制御は、以下に示すピンチイン後のピンチアウトに基づいて文字画像を再表示する処理時に行われる。
 そして、指示受付部106は、当該再表示された文字画像の示す文字についてS7で受け付けていた削除指示を取り消す(S14)。
 上記非表示後(S5)、又は再表示後(S13)に、操作者が表示画面上から接触を解除し、タッチパネル部102が当該非接触を検出すると(S8でNO,S15でNO)、指示受付部106は、タッチパネル部102から当該非接触を示す情報を受信して、削除指示を受け付けている文字の入力を削除する(S16)。なお、指示受付部106は、上記再表示により文字削除指示が取り消された文字については(S13,S14)、文字入力を削除しない。すなわち、図11に例を示すように、上記非表示(S5)又は再表示(S13)の対象とされた文字画像であって、この時点で表示部473に表示されている各文字画像の示す文字の入力又は削除が確定する(S15でNO,S16)。図11には、上記ピンチイン及ピンチアウトにより、文字g,h,iの削除が確定し、文字e,fの入力が確定した状態を示している。
 上記S9以降の処理によれば、操作者は、ピンチアウトにより指を互いに遠ざける方向に移動させる操作感と、非表示となった文字画像が再度表示される感覚、すなわち、表示される文字画像が指の動きに応じて復元される感覚を得ることになる。これにより、操作者は、自分の指で文字画像の表示を復活させ、当該文字画像の示す文字の入力及びその削除を変更できるという感覚を持って文字入力操作を行うことになるため、操作感の向上に繋がる。
 但し、上記ピンチアウト後であって接触解除前に、操作者が再度ピンチイン操作を再度行うと(S15でYES,S1)、処理はS1に戻り、図12に示すように、ピンチインによる挟まれた領域に表示されている各文字画像が非表示とされ、文字削除指示が受け付けられる(S1~S7)。
 なお、上記S16における文字の入力又は削除の確定後は、各文字画像の表示領域において操作者がピンチアウトを行っても、表示制御部103は表示を変化させない(図13参照)。但し、操作者が、文字画像の表示領域においてピンチインを行った場合は、S1からの処理が開始される。
 上記文字入力処理について更に説明する。本実施形態では、上述したように、操作者による表示部473の表示画面上でのピンチイン及びピンチアウトの実行時に、第2表示制御部1032は、ピンチイン及びピンチアウトを構成する2つの接触点のそれぞれについての初期位置及び最終位置で挟まれる領域における文字画像の表示及び非表示を切り替える。上記ピンチインによる文字画像の非表示後に操作者が表示画面から接触を解除せずに続けて上記ピンチアウトを行い、これに伴って、第2表示制御部1032が非表示としていた文字画像を再表示したとき(図10参照)、図14に例を示すように、操作者が、この状態から更に、図14では右側となる人差し指を更に右方向に移動させて更なるピンチアウトを行うと、当該更なるピンチアウト開始時における接触位置の初期位置、例えば、図10に示す人差し指による接触の初期位置から、図14に示す人差し指による移動の最終位置までの間に表示されていた文字画像「h」が、第2表示制御部1032により更に再表示される。
 また、図14に示す状態から、再度人差し指の接触位置を図14における左側、すなわち、親指の接触位置側に移動させると、図14に示す人差し指による接触の初期位置から、人差し指による移動の最終位置までの間に表示されていた文字画像「h」が、第2表示制御部1032により再度非表示とされる(図15参照)。
 更には、図15において右側となる親指の接触位置を左側、すなわち人差し指側に移動させると、図15に示す親指による接触の初期位置から、親指による接触の最終位置までの間に表示されていた文字画像「e」が、第2表示制御部1032により非表示とされる(図16参照)。
 また、図16において右側となる親指の接触位置を右側、すなわち人差し指から離れる方向に移動させると、図16に示す親指による接触の初期位置から、親指による接触の最終位置までの間に表示されていた文字画像「e」が、第2表示制御部1032により再度表示される(図17参照)。
 なお、上述したように、指示受付部106は、上記図14~図17に示した第2表示制御部1032による文字画像の非表示に伴って、当該非表示とされた文字画像の示す文字について削除指示を受け付け、第2表示制御部1032による文字画像の再表示に伴って、当該再表示された文字画像の示す文字について入力指示を受け付ける。
 このように、操作者が、表示部473の表示画面上でピンチイン及びピンチアウトに用いる各指の一方を動かすことによっても、当該指の動きに応じて、文字の削除及び入力の切換が可能になるため、更に操作性を向上させることが可能である。
 なお、本発明は上記実施の形態の構成に限られず種々の変形が可能である。例えば、上記実施形態では、ピンチイン及びピンチアウトの検出時には、これらを構成する2つの接触点のそれぞれの初期位置及び最終位置に挟まれる領域に表示されていた文字画像の表示及び非表示を第2表示制御部1032が切り換え、指示受付部106は当該文字画像の表示及び非表示の切換に応じて、当該文字画像の示す文字の削除指示及び入力指示を受け付けるが、これに限られず、ピンチインの検出時には、これらを構成する2つの接触点の初期位置に挟まれる領域に表示されていた文字画像を、第2表示制御部1032が非表示にする表示制御を行ってもよい。また、ピンチアウトの検出時には、第2表示制御部1032は、表示部473に元々表示させており、ピンチインに基づいて非表示としていた文字画像を再度表示する表示制御を行うものとしてもよい。
 また、本発明に係る画像形成装置は上記に限られず、コピー機、ファクシミリ装置、スキャナー装置等であっても構わない。また、本発明に係る文字入力装置は、画像形成装置だけではなく、他の電子機器、医療機器やモバイル通信端末等に広く適用が可能である。
 なお、図1乃至図17を用いて上記各実施形態により示した構成及び処理は、本発明の一実施形態に過ぎず、本発明を当該構成及び処理に限定する趣旨ではない。

Claims (8)

  1.  画像を表示する表示部と、
     前記表示部の表示画面上における操作者による接触及びその接触位置を検知する接触検知部と、
     複数の文字画像を記憶する画像記憶部と、
     前記画像記憶部に記憶された前記文字画像のうち、操作者から入力が指定された複数の文字を並べて前記表示部に表示させる第1表示制御部と、
     前記第1表示制御部によって前記表示部に表示されている複数の前記文字画像の表示領域における2点での接触が同時期に前記接触検知部によって検知されたとき、当該各接触についての時間経過に伴う接触位置の移動がピンチインを示すか否かを検出する検出部と、
     前記検出部によりピンチインが検出されたとき、前記接触検知部により検出された前記2点の接触の初期位置で挟まれた領域に表示されている文字画像を非表示とし、当該領域に隣接して表示されている隣接文字画像を当該領域に移動させて表示する第2表示制御部と、
     前記非表示とされた文字画像の示す文字の入力を削除する削除指示の入力を受け付ける指示受付部と、を備えた文字入力装置。
  2.  前記検出部は、前記接触位置の移動に基づいて更にピンチアウトを検出し、
     前記第2表示制御部は、前記検出されたピンチインに基づいて前記文字画像を非表示とした後に、当該非表示とされた領域において前記検出部によりピンチアウトが検出されたとき、当該非表示とされていた文字画像及び前記隣接文字画像を前記ピンチイン検出前の状態で再表示し、
     前記指示受付部は、前記非表示とされていた文字画像が示す文字についての前記削除指示を取り消す請求項1に記載の文字入力装置。
  3.  前記第2表示制御部は、前記検出部によって前記ピンチインが検出されたとき、前記2点の接触位置の少なくとも一方についての初期位置及び移動最終位置により挟まれる領域に表示されている文字画像を非表示とし、
     前記指示受付部は、前記非表示とされた文字画像の示す文字の入力を削除する削除指示の入力を受け付ける請求項1に記載の文字入力装置。
  4.  前記第2表示制御部は、前記検出部によって前記ピンチアウトが検出されたとき、前記2点の接触位置の少なくとも一方についての初期位置及び移動最終位置により挟まれる領域に表示されていた文字画像を再表示し、
     前記指示受付部は、前記非表示とされていた文字画像が示す文字についての前記削除指示を取り消す請求項2に記載の文字入力装置。
  5.  前記検出部によって前記ピンチアウトが検出され、前記第2表示制御部が、前記文字画像の再表示を行ったとき、この状態から前記検出部によって更に前記ピンチアウトが検出された場合は、前記第2表示制御部は、当該更なるピンチアウト開始時における前記接触位置の初期位置から移動最終位置までの間に前記ピンチイン検出前に表示されていた文字画像を再表示させ、
     前記指示受付部は、前記再表示とされた文字画像が示す文字についての前記削除指示を取り消す請求項4に記載の文字入力装置。
  6.  前記検出部により前記2点の接触が検出されなくなったとき、前記指示受付部は、この時点で受け付けている削除指示が示す文字を削除する請求項1に記載の文字入力装置。
  7.  画像を表示する表示部と、
     前記表示部の表示画面上における操作者による接触及びその接触位置を検知する接触検知部と、
     複数の文字画像を記憶する画像記憶部と、
     前記画像記憶部に記憶された前記文字画像のうち、操作者から入力が指定された複数の文字を並べて前記表示部に表示させる第1表示制御部と、
     前記第1表示制御部によって前記表示部に表示されている複数の前記文字画像の表示領域における2点での接触が同時期に前記接触検知部によって検知されたとき、当該各接触についての時間経過に伴う接触位置の移動がピンチインを示すか否かを検出する検出部と、
     前記検出部によりピンチインが検出されたとき、前記接触検知部により検出された前記2点の接触の初期位置で挟まれた領域に表示されている文字画像を非表示とし、当該領域に隣接して表示されている隣接文字画像を当該領域に移動させて表示する第2表示制御部と、
     前記非表示とされた文字画像の示す文字の入力を削除する削除指示の入力を受け付ける指示受付部と、を備えた文字入力装置と、
     記録媒体に画像を形成する画像形成部と、を備えた画像形成装置。
  8.  コンピューターを、
     表示部の表示画面上における操作者による接触及びその接触位置を検知する接触検知部と、
     複数の文字画像を記憶する画像記憶部と、 
     前記画像記憶部に記憶された前記文字画像のうち、操作者から入力が指定された複数の文字を並べて前記表示部に表示させる第1表示制御部と、
     前記第1表示制御部によって前記表示部に表示されている複数の前記文字画像の表示領域における2点での接触が同時期に前記接触検知部によって検知されたとき、当該各接触についての時間経過に伴う接触位置の移動がピンチインを示すか否かを検出する検出部と、
     前記検出部によりピンチインが検出されたとき、前記接触検知部により検出された前記2点の接触の初期位置で挟まれた領域に表示されている文字画像を非表示とし、当該領域に隣接して表示されている隣接文字画像を当該領域に移動させて表示する第2表示制御部と、
     前記非表示とされた文字画像の示す文字の入力を削除する削除指示の入力を受け付ける指示受付部と、して機能させる文字入力プログラム。
PCT/JP2014/074629 2013-09-26 2014-09-18 文字入力装置、文字入力プログラム及び画像形成装置 WO2015045996A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015539143A JP6076488B2 (ja) 2013-09-26 2014-09-18 文字入力装置、文字入力プログラム及び画像形成装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013200320 2013-09-26
JP2013-200320 2013-09-26

Publications (1)

Publication Number Publication Date
WO2015045996A1 true WO2015045996A1 (ja) 2015-04-02

Family

ID=52743136

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/074629 WO2015045996A1 (ja) 2013-09-26 2014-09-18 文字入力装置、文字入力プログラム及び画像形成装置

Country Status (2)

Country Link
JP (1) JP6076488B2 (ja)
WO (1) WO2015045996A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017076333A (ja) * 2015-10-16 2017-04-20 京セラドキュメントソリューションズ株式会社 表示装置、及びそれを備えた画像形成装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011003978A (ja) * 2009-06-16 2011-01-06 Sony Corp 情報処理装置、表示方法及び表示プログラム
JP2012048311A (ja) * 2010-08-24 2012-03-08 Sony Corp 情報処理装置、情報処理方法、及びプログラム
JP2013029889A (ja) * 2011-07-26 2013-02-07 Kyocera Corp 電子機器、文章編集方法及び制御プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011003978A (ja) * 2009-06-16 2011-01-06 Sony Corp 情報処理装置、表示方法及び表示プログラム
JP2012048311A (ja) * 2010-08-24 2012-03-08 Sony Corp 情報処理装置、情報処理方法、及びプログラム
JP2013029889A (ja) * 2011-07-26 2013-02-07 Kyocera Corp 電子機器、文章編集方法及び制御プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017076333A (ja) * 2015-10-16 2017-04-20 京セラドキュメントソリューションズ株式会社 表示装置、及びそれを備えた画像形成装置

Also Published As

Publication number Publication date
JPWO2015045996A1 (ja) 2017-03-09
JP6076488B2 (ja) 2017-02-08

Similar Documents

Publication Publication Date Title
US20080259376A1 (en) Image forming apparatus and image forming method
US9232090B2 (en) Electronic apparatus and image forming apparatus with improved displays of different levels of menu items
JP6005621B2 (ja) 画像形成装置
JP2015026304A (ja) 表示操作装置
EP2833251B1 (en) Numerical value inputting device and electronic equipment
US9148534B2 (en) Display input device to display preview and default setting images, image forming apparatus, control method for display input device
JP6323390B2 (ja) 電子機器及び表示制御プログラム
JP2013218739A (ja) 情報処理装置及び画像形成装置
JP6076488B2 (ja) 文字入力装置、文字入力プログラム及び画像形成装置
JP6019000B2 (ja) 文字入力装置、文字入力プログラム及び画像形成装置
US9204008B2 (en) Image forming apparatus
US10757278B2 (en) Image forming apparatus that executes first job and second job in parallel
JP5593300B2 (ja) 文字入力装置及び文字入力プログラム
JP6186304B2 (ja) 指示入力装置、画像形成装置、及び設定値入力プログラム
JP6002646B2 (ja) 文字入力装置、文字入力プログラム及び画像形成装置
JP5364665B2 (ja) 画像形成装置
JP4644225B2 (ja) 画像形成装置
US9041947B2 (en) Display apparatus, electronic apparatus, and image forming apparatus that hides non-specified images at the same hierarchical level as a specified image
JP5704762B2 (ja) 表示入力装置及びこれを備えた画像形成装置
JP7259581B2 (ja) 情報処理装置
JP6141796B2 (ja) 指示入力装置、画像形成装置、及び設定値入力プログラム
JP3934646B2 (ja) 画像形成装置
JP5866466B2 (ja) 表示入力装置及びこれを備えた画像形成装置
JP5881870B2 (ja) 表示入力装置及びこれを備えた画像形成装置
JP2021197022A (ja) 情報処理装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14848768

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2015539143

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14848768

Country of ref document: EP

Kind code of ref document: A1