WO2014192204A1 - 表示装置及び画像形成装置 - Google Patents

表示装置及び画像形成装置 Download PDF

Info

Publication number
WO2014192204A1
WO2014192204A1 PCT/JP2014/001478 JP2014001478W WO2014192204A1 WO 2014192204 A1 WO2014192204 A1 WO 2014192204A1 JP 2014001478 W JP2014001478 W JP 2014001478W WO 2014192204 A1 WO2014192204 A1 WO 2014192204A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
image
unit
coordinate
display control
Prior art date
Application number
PCT/JP2014/001478
Other languages
English (en)
French (fr)
Inventor
覚 羽山
Original Assignee
京セラドキュメントソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 京セラドキュメントソリューションズ株式会社 filed Critical 京セラドキュメントソリューションズ株式会社
Priority to JP2015519614A priority Critical patent/JP5927342B2/ja
Priority to US14/758,292 priority patent/US9407779B2/en
Publication of WO2014192204A1 publication Critical patent/WO2014192204A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • G06F3/0444Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means using a single conductive element covering the whole sensing surface, e.g. by sensing the electrical current flowing at the corners
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00352Input means
    • H04N1/00392Other manual input means, e.g. digitisers or writing tablets
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup

Definitions

  • the present invention relates to a display device having a touch panel function and an image forming apparatus including the same.
  • a display device having a touch panel function has a configuration in which a transparent touch panel unit is mounted on a display unit, and displays a screen including a predetermined image to be pressed on the display unit, such as a fingertip or a dedicated pen.
  • Such display devices are mounted on electronic devices such as multifunction peripherals, smart phones, car navigation systems, and game machines.
  • electronic devices such as multifunction peripherals, smart phones, car navigation systems, and game machines.
  • the size of the display unit is small. For this reason, when a large number of icons are displayed on the display unit, the size of the icon is reduced, so that an icon different from the icon to be pressed may be pressed (mistouch).
  • JP 2006-236143 A JP-A-8-16353
  • An object of the present invention is to prevent mistouch in a display device having a touch panel function.
  • the display device that achieves the above object has a touched panel surface, displays a touch panel unit that detects a touched position on the panel surface, and displays a predetermined image that is pressed through the panel surface. And a direction defining a coordinate plane on the panel surface is a first direction and a second direction, a direction perpendicular to the panel surface is a third direction, and is within a predetermined distance from the panel surface A coordinate measuring unit that measures coordinates in the first direction, coordinates in the second direction, and coordinates in the third direction indicating the position of the object according to a change in the position of the object, and the coordinate measuring unit When the coordinates in the first direction, the coordinates in the second direction, and the coordinates in the third direction are measured, a periphery of a position defined by the coordinates in the first direction and the coordinates in the second direction is defined.
  • the first landmark to do Is displayed on the display unit together with the predetermined image, and the first landmark image is reduced so that the region defined by the first landmark image becomes
  • the first direction coordinates, the second direction coordinates, and the second direction coordinates indicating the position of the object Measure coordinates in three directions. Then, the first landmark image that defines the periphery of the position determined by the coordinates in the first direction and the coordinates in the second direction is displayed on the display unit together with a predetermined image (for example, an icon) to be pressed. The first landmark image is displayed on the display unit so that the region defined by the first landmark image becomes smaller as the coordinate in the third direction becomes smaller, that is, as the object approaches the panel surface.
  • a predetermined image for example, an icon
  • the area defined by the first landmark image is kept in a state where it overlaps the predetermined image to be pressed, and the object is brought close to the panel surface to touch the panel surface, Mistouch can be prevented.
  • FIG. 2 is a block diagram illustrating a configuration of the image forming apparatus illustrated in FIG. 1. It is a block diagram which shows the structure of the display apparatus which concerns on 1st Embodiment. It is a side view of the touchscreen type display part with which the display apparatus which concerns on 1st Embodiment is equipped. It is a schematic diagram which shows the state which looked at the object from the upper side of the touchscreen type display part, when measuring the distance to the object above the panel surface. It is a schematic diagram which shows the state which looked at the object from the side surface side of the touchscreen type display part, when measuring the distance to the object above the panel surface.
  • a plan view of a quadrangular pyramid with the object position, the position of the first distance sensor, the position of the second distance sensor, the position of the third distance sensor, and the position of the fourth distance sensor as apexes. is there. It is the expanded view which expand
  • FIG. 5 is an explanatory diagram for explaining a state in which the distance to a relatively large object above the panel surface is measured by each of the first to fourth distance measuring sensors.
  • FIG. 6 is a three-dimensional plan view defined by the positions of first to fourth distance measuring sensors and object positions P1, P2, P3, and P4.
  • 4 is a flowchart (first half) illustrating the operation of the display device according to the first embodiment.
  • 3 is a flowchart (second half) illustrating the operation of the display device according to the first embodiment. It is a top view of the touchscreen display part which shows the state as which the other example of the 1st mark image was displayed on the display part when the distance of an object and the panel surface is long.
  • 2nd Embodiment when the distance of an object and a panel surface is long, it is a schematic diagram which shows the state which looked at the touchscreen type display part from upper direction.
  • 2nd Embodiment when the distance of an object and the panel surface is long, it is a schematic diagram which shows the state which looked at the touchscreen type display part from the side.
  • 2nd Embodiment when the distance of an object and the panel surface is short, it is a schematic diagram which shows the state which looked at the touchscreen type display part from upper direction.
  • 2nd Embodiment when the distance of an object and the panel surface is short, it is a schematic diagram which shows the state which looked at the touchscreen type display part from the side.
  • FIG. 1 is an explanatory diagram illustrating an outline of an internal structure of an image forming apparatus 1 including a display device according to the present embodiment.
  • the image forming apparatus 1 can be applied to, for example, a digital multifunction machine having functions of a copy, a printer, a scanner, and a facsimile.
  • the image forming apparatus 1 is disposed on the apparatus main body 100, an original reading unit 200 disposed on the apparatus main body 100, an original feeding unit 300 disposed on the original reading unit 200, and an upper front surface of the apparatus main body 100.
  • An operation unit 400 is provided.
  • the document feeding unit 300 functions as an automatic document feeding device, and can send a plurality of documents placed on the document placing unit 301 so that the document reading unit 200 can continuously read the documents.
  • the document reading unit 200 includes a carriage 201 on which an exposure lamp or the like is mounted, a document table 203 made of a transparent member such as glass, a CCD (Charge Coupled Device) sensor (not shown), and a document reading slit 205.
  • a CCD Charge Coupled Device
  • the CCD sensor When reading a document placed on the document table 203, the document is read by the CCD sensor while moving the carriage 201 in the longitudinal direction of the document table 203.
  • the carriage 201 is moved to a position facing the document reading slit 205, and the document fed from the document feeding unit 300 is scanned. Reading is performed by the CCD sensor through the reading slit 205.
  • the CCD sensor outputs the read original as image data.
  • the apparatus main body 100 includes a paper storage unit 101, an image forming unit 103, and a fixing unit 105.
  • the sheet storage unit 101 is disposed at the lowermost part of the apparatus main body 100 and includes a sheet tray 107 that can store a bundle of sheets. In the bundle of sheets stored in the sheet tray 107, the uppermost sheet is sent out toward the sheet conveyance path 111 by driving the pickup roller 109. The sheet is conveyed to the image forming unit 103 through the sheet conveyance path 111.
  • the image forming unit 103 forms a toner image on the conveyed paper.
  • the image forming unit 103 includes a photosensitive drum 113, an exposure unit 115, a developing unit 117, and a transfer unit 119.
  • the exposure unit 115 generates modulated light corresponding to image data (image data output from the document reading unit 200, image data transmitted from a personal computer, image data received by facsimile, etc.), and is uniformly charged. Irradiate to the peripheral surface of the photosensitive drum 113. As a result, an electrostatic latent image corresponding to the image data is formed on the peripheral surface of the photosensitive drum 113.
  • toner is supplied to the peripheral surface of the photosensitive drum 113 from the developing unit 117, so that a toner image corresponding to the image data is formed on the peripheral surface.
  • This toner image is transferred by the transfer unit 119 to the sheet conveyed from the sheet storage unit 101 described above.
  • the sheet on which the toner image is transferred is sent to the fixing unit 105.
  • the fixing unit 105 heat and pressure are applied to the toner image and the paper, and the toner image is fixed to the paper.
  • the paper is discharged to the stack tray 121 or the paper discharge tray 123.
  • the operation unit 400 includes an operation key unit 401 and a touch panel type display unit 403.
  • the touch panel display unit 403 has a touch panel function, and displays a screen including soft keys and the like. The user performs settings necessary for executing a function such as copying by operating a soft key or the like while viewing the screen.
  • the operation key unit 401 is provided with operation keys including hard keys. Specifically, a start key 405, a numeric keypad 407, a stop key 409, a reset key 411, a function switching key 413 for switching between copy, printer, scanner, and facsimile are provided.
  • the start key 405 is a key for starting operations such as copying and facsimile transmission.
  • a numeric keypad 407 is a key for inputting numbers such as the number of copies and a facsimile number.
  • a stop key 409 is a key for stopping a copy operation or the like halfway.
  • the reset key 411 is a key for returning the set contents to the initial setting state.
  • the function switching key 413 includes a copy key and a transmission key, and is a key for switching between a copy function and a transmission function.
  • an initial copy screen is displayed on the display unit 403.
  • an initial screen for facsimile transmission and mail transmission is displayed on the display unit 403.
  • FIG. 2 is a block diagram showing a configuration of the image forming apparatus 1 shown in FIG.
  • the image forming apparatus 1 has a configuration in which an apparatus main body 100, a document reading unit 200, a document feeding unit 300, an operation unit 400, a control unit 500, and a communication unit 600 are connected to each other by a bus. Since the apparatus main body 100, the document reading unit 200, the document feeding unit 300, and the operation unit 400 have already been described, description thereof will be omitted.
  • the control unit 500 includes a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), an image memory, and the like.
  • the CPU executes control necessary for operating the image forming apparatus 1 for the above-described components of the image forming apparatus 1 such as the apparatus main body 100.
  • the ROM stores software necessary for controlling the operation of the image forming apparatus 1.
  • the RAM is used for temporary storage of data generated during execution of software, storage of application software, and the like.
  • the image memory temporarily stores image data (image data output from the document reading unit 200, image data transmitted from a personal computer, image data received by facsimile, etc.).
  • the communication unit 600 includes a facsimile communication unit 601 and a network I / F unit 603.
  • the facsimile communication unit 601 includes an NCU (Network Control Unit) for controlling connection of a telephone line with a destination facsimile and a modulation / demodulation circuit for modulating / demodulating a signal for facsimile communication.
  • the facsimile communication unit 601 is connected to the telephone line 605.
  • the network I / F unit 603 is connected to a LAN (Local Area Network) 607.
  • a network I / F unit 603 is a communication interface circuit for executing communication with a terminal device such as a personal computer connected to the LAN 607.
  • FIG. 3 is a block diagram illustrating a configuration of the display device 3 according to the first embodiment.
  • the display device 3 includes a touch panel display unit 403, a coordinate measurement unit 43, a display control unit 45, and a screen data storage unit 47.
  • the touch panel display unit 403 is shown in a plan view.
  • FIG. 4 is a side view of the touch panel display unit 403.
  • the touch panel type display unit 403 includes a display unit 49 and a touch panel unit 51 disposed on the display unit 49.
  • the touch panel unit 51 is a device that has a panel surface 55 to which an object such as a fingertip is touched and detects a touched position on the panel surface 55. Examples of the object touched on the panel surface 55 include a fingertip and a dedicated pen. As a method of the touch panel unit 51, there are various methods such as a resistance film method and a capacitance method.
  • Display unit 49 displays a screen including a predetermined image.
  • the predetermined image is an image pressed through the panel surface 55 by an object such as a fingertip. Examples of the predetermined image include icons, soft keys used for inputting numbers, and the like.
  • the display unit 49 is realized by a liquid crystal display or a plasma display.
  • the screen data storage unit 47 stores in advance data indicating a screen displayed on the display unit 49, data indicating a predetermined image included in the screen, and data indicating a first landmark image included in the screen. ing.
  • the first mark image will be described later.
  • the display control unit 45 reads the data from the screen data storage unit 47 and controls the display unit 49 to display a screen including a predetermined image or a screen including the predetermined image and the first landmark image.
  • the coordinate measuring unit 43 includes a coordinate calculating unit 53 and first to fourth distance measuring sensors S1, S2, S3, S4 arranged at the four corners of the touch panel display unit 403.
  • the directions defining the coordinate plane on the panel surface 55 are the first direction and the second direction, and the direction perpendicular to the panel surface 55 is the third direction.
  • the first direction will be described as the x-axis direction, the second direction as the y-axis direction, and the third direction as the z-axis direction.
  • the coordinate measuring unit 43 measures the position of an object such as a fingertip above the panel surface 55 according to a change in the position of the object when the distance between the object and the panel surface 55 is a predetermined value or less. .
  • the coordinate measuring unit 43 measures the position of the object by measuring the x coordinate, the y coordinate, and the z coordinate indicating the position of the object.
  • 5A and 5B show the distance to the object F above the panel surface 55 as the first distance sensor S1, the second distance sensor S2, the third distance sensor S3, and the fourth distance sensor. It is a schematic diagram explaining the state currently measured by each distance measuring sensor S4.
  • 5A shows a state in which the object F is viewed from the upper side of the touch panel type display unit 403, and
  • FIG. 5B shows a state in which the object F is viewed from the side surface side of the touch panel type display unit 403.
  • the object F is a fingertip.
  • the object position P which is the position of the object F above the panel surface 55, can be measured using the first to fourth ranging sensors S1, S2, S3, S4 will be described.
  • FIG. 6 shows the object position P, the position of the first distance measuring sensor S1, the position of the second distance measuring sensor S2, the position of the third distance measuring sensor S3, and the position of the fourth distance measuring sensor S4. It is a top view of the quadrangular pyramid Q made into a vertex. The position of the first distance measuring sensor S1 is the origin.
  • the x coordinate of the object position P is x1, and the y coordinate is y1.
  • the distance from the position of the first distance measuring sensor S1 to the object position P measured using the first distance measuring sensor S1 is shown as side a.
  • the distance from the position of the second distance measuring sensor S2 to the object position P, measured using the second distance measuring sensor S2, is shown as side b.
  • a distance from the position of the third distance measuring sensor S3 to the object position P, measured using the third distance measuring sensor S3, is shown as a side c.
  • the distance from the position of the fourth distance sensor S4 to the object position P, measured using the fourth distance sensor S4, is shown as side d.
  • the four triangular side surfaces of the quadrangular pyramid Q are designated as triangle I, triangle II, triangle III, and triangle IV.
  • the triangle I is a triangle having apexes at the object position P, the position of the first distance measuring sensor S1, and the position of the second distance measuring sensor S2.
  • the three sides of the triangle I are side e that connects side a, side b, the position of the first distance measuring sensor S1, and the position of the second distance measuring sensor S2.
  • An angle defined by the side a and the side e is an angle ⁇ ae.
  • Triangle II is a triangle whose apexes are the object position P, the position of the second distance measuring sensor S2, and the position of the third distance measuring sensor S3. Three sides of the triangle II are side f connecting side b, side c, the position of the second distance measuring sensor S2, and the position of the third distance measuring sensor S3. An angle defined by the side b and the side f is an angle ⁇ fb.
  • Triangle III is a triangle whose apexes are the object position P, the position of the third distance measuring sensor S3, and the position of the fourth distance measuring sensor S4.
  • the three sides of the triangle III are side g connecting side c, side d, the position of the third distance measuring sensor S3 and the position of the fourth distance measuring sensor S4.
  • the triangle IV is a triangle having apexes at the object position P, the position of the fourth distance measuring sensor S4, and the position of the first distance measuring sensor S1.
  • the three sides of the triangle IV are side h that connects side d, side a, the position of the fourth distance sensor S4, and the position of the first distance sensor S1.
  • FIG. 7 is a development view in which the quadrangular pyramid Q is developed.
  • Side a of triangle I is indicated by side a I and side b is indicated by side b I.
  • the side b of the triangle II is indicated by side b II and the side c is indicated by side c II .
  • the side c of the triangle III is indicated by side c III and the side d is indicated by side d III .
  • Side d of triangle IV is indicated by side d IV
  • side a is indicated by side a IV .
  • FIG. 8 is a plan view of the triangle I cut out from the development shown in FIG. A position where the x coordinate is x1 on the side e is defined as a position A. A side connecting the position of the first distance measuring sensor S1 and the position A is a side j.
  • FIG. 9 is a plan view of a triangle II cut out from the development shown in FIG. A position where the y coordinate is y1 in the side f is defined as a position D. A side connecting the position of the second distance measuring sensor S2 and the position D is set as a side r.
  • the length of the side r, in other words, y1 which is the value of the y coordinate of the object position P is b II ⁇ cos ⁇ fb.
  • the y coordinate y1 of the object position P is obtained using the triangle II.
  • the y coordinate y1 of the object position P can also be obtained using the triangle I shown in FIG. Therefore, the x and y coordinates of the object position P can be obtained using the triangle I, the x and y coordinates of the object position P can be obtained using the triangle II, and the object position P can be obtained using the triangle III.
  • X and y coordinates of the object position P can be obtained using the triangle IV.
  • FIG. 10 is a three-dimensional view of the cut out quadrangular pyramid q.
  • the coordinates of the object position P are (x1, y1, z1).
  • triangle V is a triangle having the object position P, the position of the first distance measuring sensor S1, and the position A as vertices, and is a part of the triangle I shown in FIG.
  • the coordinates of the position A are (x1, 0, 0).
  • the three sides of the triangle V are side a, side j, and side i connecting the object position P and position A.
  • Triangle VI is a triangle having apexes at object position P, position A, and position B.
  • the coordinates of the position B are (x1, y1, 0).
  • the three sides of the triangle VI are side i, side l, and side k connecting the object position P and position B.
  • Triangle VII is a triangle having the object position P, position B, and position C as vertices.
  • the position C is on the side h shown in FIG.
  • the coordinates of the position C are (0, y1, 0).
  • Three sides of the triangle VII are a side k, a side m connecting the object position P and the position C, and a side n connecting the position B and the position C.
  • Triangle VIII is a triangle whose apexes are the object position P, position C, and the position of the first distance measuring sensor S1, and is a part of the triangle IV shown in FIG. Three sides of the triangle VIII are sides o connecting the side m, side a, and position C to the position of the first distance measuring sensor S1.
  • the distance to the object F is measured using the first to fourth distance measuring sensors S1, S2, S3, and S4 shown in FIG. 5, and the object position is determined based on these distances. Since the x coordinate, y coordinate, and z coordinate of P can be obtained, the object position P can be measured.
  • 11A and 11B are schematic diagrams for explaining the first landmark image 61 displayed on the display unit 49 when the distance between the object F and the panel surface 55 is long.
  • 12A and 12B are schematic diagrams for explaining the first landmark image 61 displayed on the display unit 49 when the distance between the object F and the panel surface 55 is short.
  • 11A and 12A show a state where the touch panel display unit 403 is viewed from above
  • FIGS. 11B and 12B show a state where the touch panel display unit 403 is viewed from the side.
  • the display unit 49 displays a first landmark image 61 and a plurality of predetermined images 63 (for example, icons).
  • the first landmark image 61 is a dotted double circle image.
  • the image is not limited to the dotted line image, but may be a solid line image, and is not limited to the double circle image, and may be a single circle image.
  • the coordinate measurement unit 43 performs the x-coordinate, y-coordinate indicating the object position P for the object F above the panel surface 55, Measure the z coordinate.
  • the display control unit 45 adds the first landmark image 61 in addition to the plurality of predetermined images 63. Is displayed on the display unit 49.
  • the first mark image 61 is centered on a position determined by the x coordinate and y coordinate of the object position P, and defines the periphery of the position.
  • the display control unit 45 gradually increases the region defined by the first mark image 61.
  • the first landmark image 61 is displayed on the display unit 49 so as to be smaller (linearly).
  • the display control unit 45 sets the first region 61 so that the region defined by the first landmark image 61 is minimized. 1 is displayed on the display unit 49.
  • the display control unit 45 performs the first operation.
  • the first mark image 61 is displayed on the display unit 49 so that the area defined by the mark image 61 is gradually reduced.
  • the display control unit 45 is displayed.
  • the first landmark image 61 is displayed on the display unit 49 so that the area defined by the first landmark image 61 gradually increases.
  • the display control unit 45 does not display the first landmark image 61 on the display unit 49 in the case of a relatively large object F (for example, a palm).
  • a relatively large object F for example, a palm.
  • FIG. 13 is an explanatory diagram for explaining a state in which the distance to the relatively large object F above the panel surface 55 is measured by each of the first to fourth distance measuring sensors S1, S2, S3, and S4. It is.
  • the object F here indicates a hand.
  • the first to fourth ranging sensors S1, S2, S3 and S4 measure the shortest distance to the object F.
  • the position of the object F measured using the first distance measuring sensor S1 is the object position P1
  • the position of the object F measured using the second distance measuring sensor S2 is the object position P2
  • the third distance measuring sensor S3 is The position of the object F measured using the object position P3 is defined as an object position P3
  • the position of the object F measured using the fourth distance measuring sensor S4 is defined as an object position P4.
  • FIG. 14 shows a three-dimensional plan view defined by the positions of the first to fourth ranging sensors S1, S2, S3, S4 and the object positions P1, P2, P3, P4.
  • the object position is not fixed at one point. Therefore, since the distance between the object F and the panel surface 55 is not fixed to one, the display control unit 45 does not display the first landmark image 61 on the display unit 49.
  • Whether to display the first landmark image 61 according to the size of the object F can be determined as follows.
  • the x-coordinate x1 and the y-coordinate y1 of the object position P can be obtained using the triangle I shown in FIG. 6, and the x-coordinate x1 and the y-coordinate y1 of the object position P can be obtained using the triangle II.
  • the x-coordinate x1 and y-coordinate y1 of the object position P can be obtained using the triangle III, and the x-coordinate x1 and y-coordinate y1 of the object position P can be obtained using the triangle IV.
  • the coordinate calculation unit 53 stores in advance an expression for obtaining the x coordinate x1 of the object position P and an expression for obtaining the y coordinate y1 using the triangle II.
  • the coordinate calculation unit 53 stores in advance a formula for obtaining the x coordinate x1 of the object position P and a formula for obtaining the y coordinate y1 using the triangle III.
  • the coordinate calculation unit 53 stores in advance an expression for obtaining the x coordinate x1 of the object position P and an expression for obtaining the y coordinate y1 using the triangle IV.
  • the coordinate calculation unit 53 sets the distances measured by the first to fourth distance measuring sensors S1, S2, S3, and S4 as sides a, b, c, and d, and sets the object position P as a vertex.
  • the x coordinate x1 and the y coordinate y1 of the object position P are calculated using each of the four triangles I, II, III, and IV.
  • the object position P is determined as one point when the condition to be met (matching condition) is satisfied.
  • the coordinate calculation unit 53 stores a formula for obtaining the z coordinate z1 of the object position P in advance. If the coordinate calculation unit 53 determines that the matching condition is satisfied, the coordinate calculation unit 53 calculates the z coordinate z1 using an expression for obtaining the z coordinate z1 of the object position P. The coordinate calculation unit 53 sends the data of the x coordinate x1, the y coordinate y1, and the z coordinate z1 of the object position P to the display control unit 45. The display control unit 45 causes the display unit 49 to display the first landmark image 61 based on the data.
  • the coordinate calculation unit 53 does not calculate the z coordinate z1 of the object position P if it does not determine that the matching condition is satisfied. Since the data of the x coordinate x1, the y coordinate y1, and the z coordinate z1 of the object position P are not sent to the display control unit 45, the display control unit 45 does not display the first landmark image 61 on the display unit 49. .
  • the x and y coordinates of the object position P are calculated as described above.
  • the coordinate calculation unit 53 calculates the z-coordinate when the x-coordinates all match and the y-coordinates all match, and does not calculate the z-coordinate when the matching conditions are not satisfied.
  • FIG. 15 and 16 are flowcharts for explaining the operation. A description will be given from a state in which the display of the screen is turned off on the display unit 49.
  • the predetermined image 63 will be described using an icon as an example.
  • the display control unit 45 controls the display unit 49 to turn off the screen display when a predetermined condition is met (step S1).
  • step S2 If the object F is not detected by any of the first to fourth ranging sensors S1, S2, S3, S4 (No in step S2), the process returns to step S1.
  • the display control unit 45 displays a plurality of predetermined images shown in FIG. 11A.
  • a screen including 63 is displayed on the display unit 49 (step S3). At this time, the first landmark image 61 is not displayed.
  • step S4 determines whether or not the object position P is determined as one point. If it is not determined that the object position P is fixed at one point (No in step S4), the display control unit 45 does not display the first landmark image 61 on the display unit 49 (step S5). Then, the process returns to step S3.
  • the coordinate measuring unit 43 determines whether the distance between the object position P and the panel surface 55 is equal to or less than a predetermined distance (for example, 10 cm) ( Step S6).
  • step S6 If the distance between the object position P and the panel surface 55 is not determined to be equal to or smaller than the predetermined distance (No in step S6), the display control unit 45 does not display the first landmark image 61 on the display unit 49 (step S5).
  • the display control unit 45 displays the first landmark image 61 as a plurality of predetermined images as shown in FIG. 11A. 63 and displayed on the display unit 49 (step S7).
  • the coordinate measuring unit 43 determines whether or not the object position P has changed (step S8). If the object position P does not change (No in step S8), step S8 is repeated.
  • step S8 the coordinate measuring unit 43 determines whether or not the distance between the object position P and the panel surface 55 has decreased (step S9).
  • the display control unit 45 When it is determined that the distance between the object position P and the panel surface 55 has been shortened (Yes in step S9), the display control unit 45 has an area defined by the first landmark image 61 as shown in FIG. 12A. The first landmark image 61 is displayed on the display unit 49 so as to be smaller (step S10).
  • step S11 When the touch panel unit 51 does not detect that the object F has touched the panel surface 55 (No in step S11), the process returns to step S8.
  • the display control unit 45 switches the screen of the display unit 49 to a predetermined screen (step S12). Specifically, when the panel surface 55 is touched, a screen for executing the function of the predetermined image 63 (icon) pressed through the panel surface 55 is displayed on the display unit 49. That is, the display control unit 45 causes the display unit 49 to display a first screen including a plurality of predetermined images 63 in display control. When the touch panel unit 51 detects that the object F touches the panel surface 55 on any one of the plurality of predetermined images 63, the display control unit 45 causes the display unit 49 to display the display control unit 45 in the display control. The screen is switched from the first screen to the second screen assigned to the predetermined image 63 below the panel surface 55 touched by the object F.
  • step S9 When the coordinate measuring unit 43 determines that the distance between the object position P and the panel surface 55 has increased (No in step S9), the display control unit 45 increases the area defined by the first landmark image 61. In this way, the first landmark image 61 is displayed on the display unit 49 (step S13). Then, the process returns to step S8.
  • the object position P is indicated according to the change in the position of the object F (for example, a fingertip) within a predetermined distance from the panel surface 55.
  • the x coordinate, y coordinate, and z coordinate are measured.
  • the first landmark image 61 that defines the periphery of the position determined by the x coordinate and the y coordinate is displayed on the display unit 49 together with the predetermined image 63 to be pressed.
  • the z-coordinate decreases, that is, as the object F approaches the panel surface 55, as shown in FIGS. 12A and 12B, the first region is defined so that the region defined by the first landmark image 61 decreases.
  • the mark image 61 is displayed on the display unit 49.
  • the area defined by the first mark image 61 is kept in a state where it overlaps with the predetermined image 63 to be pressed, and the object F is brought close to the panel surface 55 to make the panel By touching the surface 55, mistouch can be prevented.
  • the touch panel display unit 403 has a structure in which a transparent touch panel unit 51 that detects the touched position of the panel surface 55 is placed on the display unit 49. Yes. Since the touch panel unit 51 exists between the display unit 49 and the object F such as the fingertip, the distance between the object F such as the fingertip and the predetermined image 63 is different from the distance between the object F such as the fingertip and the panel surface 55. . In the touch panel type display unit 403, the panel surface 55 of the touch panel unit 51 is touched while viewing the predetermined image 63, so it is difficult to understand when the object F such as a fingertip touches the panel surface 55.
  • the display device 3 As described above, as the object F such as a fingertip approaches the panel surface 55, the area defined by the first landmark image 61 is reduced. One mark image 61 is displayed on the display unit 49. Therefore, by looking at the first mark image 61, it is possible to visually recognize the sense of distance between the object F such as a fingertip and the panel surface 55.
  • the first embodiment further has the following effects.
  • the display control unit 45 when the screen including the predetermined image 63 is turned off on the display unit 49 and the object F is detected by the first to fourth ranging sensors S1, S2, S3, S4, A screen including the image 63 is displayed on the display unit 49 (steps S1, S2, S3).
  • the first to fourth ranging sensors S1, S2, S3 are used as switches for returning the screen display from the screen display off state to the screen display state in the display unit 49.
  • S4 is used. Therefore, according to the first embodiment, the display unit 49 can be returned to the screen display state from the screen display disappeared without newly providing a proximity sensor.
  • the first landmark image 61 is not limited to a double circle image, but may be any image that can define the periphery of the position determined by the x coordinate and the y coordinate of the object position P.
  • the first mark image 61 there are four triangular images located in four directions defined by the x coordinate and the y coordinate.
  • FIG. 17 is a plan view of the touch panel display unit 403 showing a state in which another example of the first mark image 65 is displayed on the display unit 49 when the distance between the object F and the panel surface 55 is long.
  • FIG. 18 is a plan view of the touch panel type display unit 403 showing a state in which another example of the first mark image 65 is displayed on the display unit 49 when the distance between the object F and the panel surface 55 is short.
  • the first landmark image 65 is composed of four triangular images 65a, 65b, 65c, and 65d.
  • a triangular image 65a and a triangular image 65b are arranged along the y-axis direction.
  • a triangular image 65c and a triangular image 65d are arranged along the x-axis direction.
  • the intersection of the line connecting the vertex of the triangular image 65a and the vertex of the triangular image 65b and the line connecting the vertex of the triangular image 65c and the vertex of the triangular image 65d becomes the x coordinate x1 and the y coordinate y1 of the object position P. .
  • a second landmark image is displayed on the display unit 49 in addition to the first landmark image 61.
  • 19A and 19B are schematic diagrams for explaining the first landmark image 61 and the second landmark image 67 displayed on the display unit 49 when the distance between the object F and the panel surface 55 is long.
  • 20A and 20B are schematic diagrams for explaining the first mark image 61 and the second mark image 67 displayed on the display unit 49 when the distance between the object F and the panel surface 55 is short.
  • 19A and 20A show a state where the touch panel type display unit 403 is viewed from above
  • FIGS. 19B and 20B show a state where the touch panel type display unit 403 is viewed from the side.
  • the display unit 49 displays a screen including a first landmark image 61, a second landmark image 67, and a plurality of predetermined images 63. This screen is displayed on the display unit 49 by the display control unit 45 shown in FIG.
  • the first landmark image 61 and the plurality of predetermined images 63 are the same as the first landmark image 61 and the plurality of predetermined images 63 shown in FIGS. 11A and 12A.
  • the second mark image 67 is an image indicating a position determined by the x coordinate x1 and the y coordinate y1 of the object position P.
  • the second landmark image 67 is composed of a line image 67a indicating the x axis (one line image extending in the first direction) and a line image 67b indicating the y axis (one line image extending in the second direction). Is done.
  • the data of the second landmark image 67 is stored in advance in the screen data storage unit 47 shown in FIG.
  • the display control section 45 causes the display section 49 to display the second landmark image 67 together with the first landmark image 61.
  • the display device 3 according to the second embodiment has the following effects in addition to the effects of the display device 3 according to the first embodiment.
  • the region defined by the first mark image 61 is larger than when the distance is short, so the position of the object F on the panel surface 55 is It ’s hard to tell if it ’s up.
  • the second mark image 67 indicating the position defined by the x coordinate x1 and the y coordinate y1 is displayed together with the first mark image 61 and the predetermined image 63, the object F and the panel surface are displayed. Even when the distance to the panel 55 is long, it can be seen where the object F is on the panel surface 55.
  • the second mark image there is a point image indicating a position defined by the x coordinate and the y coordinate.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

 座標測定部(43)は、パネル表面(55)から所定距離内にある物体(F)の位置の変化に応じて、物体位置(P)を示すx座標、y座標、z座標を測定する。表示制御部(45)は、x座標とy座標とで定められる位置の周囲を規定する第1の目印画像(61)を、所定画像(63)と共に表示部(49)に表示する。表示制御部(45)は、z座標が小さくなるにしたがって、第1の目印画像(61)で規定される領域が小さくなるように、第1の目印画像(61)を表示部(49)に表示する。

Description

表示装置及び画像形成装置
 本発明は、タッチパネル機能を有する表示装置、及び、これを備える画像形成装置に関する。
 タッチパネル機能を有する表示装置は、表示部の上に透明なタッチパネル部を搭載した構成を有しており、押下の対象となる所定画像を含む画面を表示部に表示し、指先や専用ペン等の物体で、タッチパネル部を介して所定画像を押下することにより、電子機器を操作する装置である。所定画像としては、アイコンやソフトキー等が挙げられ、アイコンを例に説明する。
 このような表示装置は、複合機、スマートフォーン、カーナビ、ゲーム機等の電子機器に搭載されている。スマートフォーンのような小型の電子機器では、表示部のサイズが小さい。このため、表示部に多数のアイコンを表示する場合、アイコンのサイズが小さくなるので、押下したいアイコンと異なるアイコンを押下してしまうことがある(ミスタッチ)。
 ミスタッチを防止する技術として、指と表示部との距離が所定距離以下になれば、指が近づいているアイコンを特定し、そのアイコンを拡大する技術が提案されている(例えば、特許文献1参照)。
 また、ミスタッチを防止する他の技術として、画面に表示されているボタンにカーソルを近づけると、そのボタンを拡大する技術が提案されている(例えば、特許文献2参照)。
特開2006-236143号公報 特開平8-16353号公報
 本発明は、タッチパネル機能を有する表示装置において、ミスタッチを防止できることを目的とする。
 上記目的を達成する本発明に係る表示装置は、タッチされるパネル表面を有し、前記パネル表面のタッチされた位置を検出するタッチパネル部と、前記パネル表面を介して押下される所定画像を表示する表示部と、前記パネル表面上の座標平面を規定する方向を第1方向及び第2方向とし、前記パネル表面に対して垂直な方向を第3方向とし、前記パネル表面から所定距離内にある物体の位置の変化に応じて、前記物体の位置を示す前記第1方向の座標、前記第2方向の座標、及び、前記第3方向の座標を測定する座標測定部と、前記座標測定部によって前記第1方向の座標、前記第2方向の座標、及び、前記第3方向の座標が測定されたとき、前記第1方向の座標と前記第2方向の座標とで定められる位置の周囲を規定する第1の目印画像を、前記所定画像と共に前記表示部に表示させ、前記第3方向の座標が小さくなるにしたがって、前記第1の目印画像で規定される領域が小さくなるように、前記第1の目印画像を前記表示部に表示させる表示制御部と、を備える。
 本発明に係る表示装置では、パネル表面から所定距離内にある物体(例えば、指先)の位置の変化に応じて、物体の位置を示す第1方向の座標、第2方向の座標、及び、第3方向の座標を測定する。そして、第1方向の座標と第2方向の座標とで定められる位置の周囲を規定する第1の目印画像を、押下される対象となる所定画像(例えば、アイコン)と共に表示部に表示する。第3方向の座標が小さくなるにしたがって、すなわち、物体がパネル表面に近づくにしたがって、第1の目印画像で規定される領域が小さくなるように、第1の目印画像を表示部に表示する。
 従って、本発明に係る表示装置によれば、第1の目印画像で規定される領域が、押下したい所定画像と重なる状態を保って、物体をパネル表面に近づけてパネル表面にタッチすることにより、ミスタッチを防止できる。
本実施形態に係る表示装置を備える画像形成装置の内部構造の概略を説明する説明図である。 図1に示す画像形成装置の構成を示すブロック図である。 第1実施形態に係る表示装置の構成を示すブロック図である。 第1実施形態に係る表示装置に備えられるタッチパネル式表示部の側面図である。 パネル表面の上方にある物体までの距離を測定している場合に、タッチパネル式表示部の上方側から物体を見た状態を示す模式図である。 パネル表面の上方にある物体までの距離を測定している場合に、タッチパネル式表示部の側面側から物体を見た状態を示す模式図である。 物体位置、第1の測距センサーの位置、第2の測距センサーの位置、第3の測距センサーの位置、及び、第4の測距センサーの位置を頂点とする四角錐の平面図である。 図6に示す四角錐Qを展開した展開図である。 図7に示す展開図から切り取られた三角形Iの平面図である。 図7に示す展開図から切り取られた三角形IIの平面図である。 図6に示す四角錐Qについて、物体位置Pを通り、y軸方向に平行な方向に沿って切断し、かつ、物体位置Pを通り、x軸方向に平行な方向に沿って切断して、切り出した四角錐qの立体図である。 第1実施形態において、物体とパネル表面との距離が長い場合に、タッチパネル式表示部を上方から見た状態を示す模式図である。 第1実施形態において、物体とパネル表面との距離が長い場合に、タッチパネル式表示部を側方から見た状態を示す模式図である。 第1実施形態において、物体とパネル表面との距離が短い場合に、タッチパネル式表示部を上方から見た状態を示す模式図である。 第1実施形態において、物体とパネル表面との距離が短い場合に、タッチパネル式表示部を側方から見た状態を示す模式図である。 パネル表面の上方にある比較的大きい物体までの距離を、第1~第4の測距センサーのそれぞれで測定している状態を説明する説明図である。 第1~第4の測距センサーの位置と、物体位置P1,P2,P3,P4とで規定される立体の平面図である。 第1実施形態に係る表示装置の動作を説明するフローチャート(前半)である。 第1実施形態に係る表示装置の動作を説明するフローチャート(後半)である。 物体とパネル表面との距離が長い場合に、第1の目印画像の他の例が表示部に表示された状態を示すタッチパネル式表示部の平面図である。 物体とパネル表面との距離が短い場合に、第1の目印画像の他の例が表示部に表示された状態を示すタッチパネル式表示部の平面図である。 第2実施形態において、物体とパネル表面との距離が長い場合に、タッチパネル式表示部を上方から見た状態を示す模式図である。 第2実施形態において、物体とパネル表面との距離が長い場合に、タッチパネル式表示部を側方から見た状態を示す模式図である。 第2実施形態において、物体とパネル表面との距離が短い場合に、タッチパネル式表示部を上方から見た状態を示す模式図である。 第2実施形態において、物体とパネル表面との距離が短い場合に、タッチパネル式表示部を側方から見た状態を示す模式図である。
 以下、図面に基づいて本発明の実施形態を詳細に説明する。図1は、本実施形態に係る表示装置を備える画像形成装置1の内部構造の概略を説明する説明図である。画像形成装置1は、例えば、コピー、プリンター、スキャナー及びファクシミリの機能を有するデジタル複合機に適用することができる。画像形成装置1は、装置本体100、装置本体100の上に配置された原稿読取部200、原稿読取部200の上に配置された原稿給送部300及び装置本体100の上部前面に配置された操作部400を備える。
 原稿給送部300は、自動原稿送り装置として機能し、原稿載置部301に置かれた複数枚の原稿を連続的に原稿読取部200で読み取ることができるように送ることができる。
 原稿読取部200は、露光ランプ等を搭載したキャリッジ201、ガラス等の透明部材により構成された原稿台203、不図示のCCD(Charge Coupled Device)センサー及び原稿読取スリット205を備える。原稿台203に載置された原稿を読み取る場合、キャリッジ201を原稿台203の長手方向に移動させながらCCDセンサーにより原稿を読み取る。これに対して、原稿給送部300から給送された原稿を読み取る場合、キャリッジ201を原稿読取スリット205と対向する位置に移動させて、原稿給送部300から送られてきた原稿を、原稿読取スリット205を通してCCDセンサーにより読み取る。CCDセンサーは読み取った原稿を画像データとして出力する。
 装置本体100は、用紙貯留部101、画像形成部103及び定着部105を備える。用紙貯留部101は、装置本体100の最下部に配置されており、用紙の束を貯留することができる用紙トレイ107を備える。用紙トレイ107に貯留された用紙の束において、最上位の用紙がピックアップローラー109の駆動により、用紙搬送路111へ向けて送出される。用紙は、用紙搬送路111を通って、画像形成部103へ搬送される。
 画像形成部103は、搬送されてきた用紙にトナー画像を形成する。画像形成部103は、感光体ドラム113、露光部115、現像部117及び転写部119を備える。露光部115は、画像データ(原稿読取部200から出力された画像データ、パソコンから送信された画像データ、ファクシミリ受信の画像データ等)に対応して変調された光を生成し、一様に帯電された感光体ドラム113の周面に照射する。これにより、感光体ドラム113の周面には、画像データに対応する静電潜像が形成される。この状態で感光体ドラム113の周面に現像部117からトナーを供給することにより、周面には画像データに対応するトナー像が形成される。このトナー像は、転写部119によって先ほど説明した用紙貯留部101から搬送されてきた用紙に転写される。
 トナー像が転写された用紙は、定着部105に送られる。定着部105において、トナー像と用紙に熱と圧力が加えられて、トナー像は用紙に定着される。用紙はスタックトレイ121又は排紙トレイ123に排紙される。
 操作部400は、操作キー部401とタッチパネル式表示部403を備える。タッチパネル式表示部403は、タッチパネル機能を有しており、ソフトキー等を含む画面が表示される。ユーザーは、画面を見ながらソフトキー等を操作することによって、コピー等の機能の実行に必要な設定等をする。
 操作キー部401には、ハードキーからなる操作キーが設けられている。具体的には、スタートキー405、テンキー407、ストップキー409、リセットキー411、コピー、プリンター、スキャナー及びファクシミリを切り換えるための機能切換キー413等が設けられている。
 スタートキー405は、コピー、ファクシミリ送信等の動作を開始させるキーである。テンキー407は、コピー部数、ファクシミリ番号等の数字を入力するキーである。ストップキー409は、コピー動作等を途中で中止させるキーである。リセットキー411は、設定された内容を初期設定状態に戻すキーである。
 機能切換キー413は、コピーキー及び送信キー等を備えており、コピー機能、送信機能等を相互に切り替えるキーである。コピーキーを操作すれば、コピーの初期画面が表示部403に表示される。送信キーを操作すれば、ファクシミリ送信及びメール送信の初期画面が表示部403に表示される。
 図2は、図1に示す画像形成装置1の構成を示すブロック図である。画像形成装置1は、装置本体100、原稿読取部200、原稿給送部300、操作部400、制御部500及び通信部600がバスによって相互に接続された構成を有する。装置本体100、原稿読取部200、原稿給送部300及び操作部400に関しては既に説明したので、説明を省略する。
 制御部500は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)及び画像メモリー等を備える。CPUは、画像形成装置1を動作させるために必要な制御を、装置本体100等の画像形成装置1の上記構成要素に対して実行する。ROMは、画像形成装置1の動作の制御に必要なソフトウェアを記憶している。RAMは、ソフトウェアの実行時に発生するデータの一時的な記憶及びアプリケーションソフトの記憶等に利用される。画像メモリーは、画像データ(原稿読取部200から出力された画像データ、パソコンから送信された画像データ、ファクシミリ受信の画像データ等)を一時的に記憶する。
 通信部600は、ファクシミリ通信部601及びネットワークI/F部603を備える。ファクシミリ通信部601は、相手先ファクシミリとの電話回線の接続を制御するNCU(Network Control Unit)及びファクシミリ通信用の信号を変復調する変復調回路を備える。ファクシミリ通信部601は、電話回線605に接続される。
 ネットワークI/F部603は、LAN(Local Area Network)607に接続される。ネットワークI/F部603は、LAN607に接続されたパソコン等の端末装置との間で通信を実行するための通信インターフェイス回路である。
 本実施形態には、第1実施形態と第2実施形態とがある。第1実施形態から説明する。図3は、第1実施形態に係る表示装置3の構成を示すブロック図である。表示装置3は、タッチパネル式表示部403、座標測定部43、表示制御部45、及び、画面データ記憶部47を備える。タッチパネル式表示部403は、平面図で示されている。図4は、タッチパネル式表示部403の側面図である。
 タッチパネル式表示部403は、表示部49と、表示部49の上に配置されたタッチパネル部51と、を備える。
 タッチパネル部51は、指先等の物体がタッチされるパネル表面55を有し、パネル表面55のタッチされた位置を検出する装置である。パネル表面55にタッチされる物体として、指先や専用ペン等がある。タッチパネル部51の方式としては、抵抗膜方式や静電容量方式等の各種方式がある。
 表示部49は、所定画像を含む画面を表示する。所定画像とは、指先等の物体により、パネル表面55を介して押下される画像である。所定画像として、アイコンや、数字等入力に用いるソフトキー等が挙げられる。表示部49は、液晶ディスプレイやプラズマディスプレイにより実現される。
 画面データ記憶部47は、表示部49に表示される画面を示すデータ、その画面に含まれる所定画像を示すデータ、及び、その画面に含まれる第1の目印画像を示すデータを、予め記憶している。第1の目印画像については、後で説明する。
 表示制御部45は、画面データ記憶部47から上記データを読み出して、所定画像を含む画面や所定画像及び第1の目印画像を含む画面を表示部49に表示させる制御をする。
 座標測定部43は、座標演算部53、及び、タッチパネル式表示部403の四隅に配置された第1~第4の測距センサーS1,S2,S3,S4を備える。パネル表面55上の座標平面を規定する方向を第1方向及び第2方向とし、パネル表面55に対して垂直な方向を第3方向とする。本実施形態では、第1方向をx軸方向、第2方向をy軸方向、第3方向をz軸方向として説明する。
 座標測定部43は、パネル表面55の上方にある指先等の物体について、その物体とパネル表面55との距離が所定値以下になれば、物体の位置の変化に応じて物体の位置を測定する。座標測定部43は、物体の位置を示すx座標、y座標及びz座標を測定することにより、その物体の位置を測定する。
 図5A及び図5Bは、パネル表面55の上方にある物体Fまでの距離を、第1の測距センサーS1、第2の測距センサーS2、第3の測距センサーS3、及び、第4の測距センサーS4のそれぞれで測定している状態を説明する模式図である。図5Aは、タッチパネル式表示部403の上方側から物体Fを見た状態を示し、図5Bは、タッチパネル式表示部403の側面側から物体Fを見た状態を示している。物体Fは、指先である。
 第1~第4の測距センサーS1,S2,S3,S4を用いて、パネル表面55の上方にある物体Fの位置である物体位置Pを測定できる理論について説明する。
 図6は、物体位置P、第1の測距センサーS1の位置、第2の測距センサーS2の位置、第3の測距センサーS3の位置、及び、第4の測距センサーS4の位置を頂点とする四角錐Qの平面図である。第1の測距センサーS1の位置を原点とする。
 第1の測距センサーS1と第2の測距センサーS2とは、y座標が同じ値(=0)であり、第3の測距センサーS3と第4の測距センサーS4とは、y座標が同じ値である。第1の測距センサーS1と第4の測距センサーS4とは、x座標が同じ値(=0)であり、第2の測距センサーS2と第3の測距センサーS3とは、x座標が同じ値である。物体位置Pのx座標をx1、y座標をy1とする。
 第1の測距センサーS1を用いて測定した、第1の測距センサーS1の位置から物体位置Pまでの距離を辺aとして示す。第2の測距センサーS2を用いて測定した、第2の測距センサーS2の位置から物体位置Pまでの距離を辺bとして示す。第3の測距センサーS3を用いて測定した、第3の測距センサーS3の位置から物体位置Pまでの距離を辺cとして示す。第4の測距センサーS4を用いて測定した、第4の測距センサーS4の位置から物体位置Pまでの距離を辺dとして示す。
 四角錐Qが有する四つの三角形の側面を、三角形I、三角形II、三角形III、三角形IVとする。三角形Iは、物体位置P、第1の測距センサーS1の位置及び第2の測距センサーS2の位置を頂点とする三角形である。三角形Iの三辺は、辺a、辺b、第1の測距センサーS1の位置と第2の測距センサーS2の位置とを結ぶ辺eである。辺aと辺eとで規定される角度を角∠aeとする。
 三角形IIは、物体位置P、第2の測距センサーS2の位置及び第3の測距センサーS3の位置を頂点とする三角形である。三角形IIの三辺は、辺b、辺c、第2の測距センサーS2の位置と第3の測距センサーS3の位置とを結ぶ辺fである。辺bと辺fとで規定される角度を角∠fbとする。
 三角形IIIは、物体位置P、第3の測距センサーS3の位置及び第4の測距センサーS4の位置を頂点とする三角形である。三角形IIIの三辺は、辺c、辺d、第3の測距センサーS3の位置と第4の測距センサーS4の位置とを結ぶ辺gである。
 三角形IVは、物体位置P、第4の測距センサーS4の位置及び第1の測距センサーS1の位置を頂点とする三角形である。三角形IVの三辺は、辺d、辺a、第4の測距センサーS4の位置と第1の測距センサーS1の位置とを結ぶ辺hである。
 図7は、四角錐Qを展開した展開図である。三角形Iの辺aを辺a、辺bを辺bで示す。三角形IIの辺bを辺bII、辺cを辺cIIで示す。三角形IIIの辺cを辺cIII、辺dを辺dIIIで示す。三角形IVの辺dを辺dIV、辺aを辺aIVで示す。
 図8は、図7に示す展開図から切り取られた三角形Iの平面図である。辺eにおいて、x座標がx1となる位置を位置Aとする。第1の測距センサーS1の位置と位置Aとを結ぶ辺を辺jとする。
 余弦定理より、cos∠ae=(a +e-b )/(2×a×e)となる。cos∠ae=j/a、となるので、j=a×cos∠ae、となる。辺jの長さ、言い換えれば、物体位置Pのx座標の値であるx1は、a×cos∠ae、となる。
 図9は、図7に示す展開図から切り取られた三角形IIの平面図である。辺fにおいて、y座標がy1となる位置を位置Dとする。第2の測距センサーS2の位置と位置Dとを結ぶ辺を辺rとする。
 余弦定理より、cos∠fb=(bII +f-cII )/(2×bII×f)となる。cos∠fb=r/bII、となるので、r=bII×cos∠fb、となる。辺rの長さ、言い換えれば、物体位置Pのy座標の値であるy1は、bII×cos∠fb、となる。
 三角形IIを使って、物体位置Pのy座標y1を求めている。しかし、sinθ+cosθ=1の公式から、sin∠aeが求まるので、図6に示す三角形Iを使っても、物体位置Pのy座標y1を求めることができる。よって、三角形Iを使って物体位置Pのx座標、y座標を求めることができ、三角形IIを使って物体位置Pのx座標、y座標を求めることができ、三角形IIIを使って物体位置Pのx座標、y座標を求めることができ、三角形IVを使って物体位置Pのx座標、y座標を求めることができる。
 物体位置Pのz座標z1の求め方を説明する。図6に示す四角錐Qについて、物体位置Pを通り、y軸方向に平行な方向に沿って切断し、かつ、物体位置Pを通り、x軸方向に平行な方向に沿って切断して、切り出した四角錐qの立体図が、図10である。物体位置Pの座標は、(x1、y1、z1)である。
 四角錐qが有する四つの三角形側面を、三角形V、三角形VI、三角形VII、三角形VIIIとする。三角形Vは、物体位置P、第1の測距センサーS1の位置及び位置Aを頂点とする三角形であり、図6に示す三角形Iの一部である。位置Aの座標は、(x1、0、0)である。三角形Vの三辺は、辺a、辺j、物体位置Pと位置Aとを結ぶ辺iである。
 三角形VIは、物体位置P、位置A及び位置Bを頂点とする三角形である。位置Bの座標は、(x1、y1、0)である。三角形VIの三辺は、辺i、辺l、物体位置Pと位置Bとを結ぶ辺kである。
 三角形VIIは、物体位置P、位置B及び位置Cを頂点とする三角形である。位置Cは、図6に示す辺h上にある。位置Cの座標は、(0、y1、0)である。三角形VIIの三辺は、辺k、物体位置Pと位置Cとを結ぶ辺m、位置Bと位置Cとを結ぶ辺nである。
 三角形VIIIは、物体位置P、位置C及び第1の測距センサーS1の位置を頂点とする三角形であり、図6に示す三角形IVの一部である。三角形VIIIの三辺は、辺m、辺a、位置Cと第1の測距センサーS1の位置とを結ぶ辺oである。
 tan∠ae=i/jなので、i=j×tan∠aeとなる。そして、三平方の定理(i=l+k)から、辺kの長さ、つまり、物体位置Pのz座標z1が求まる。
 以上説明したように、図5に示す第1~第4の測距センサーS1,S2,S3,S4を用いて、物体Fまでの距離をそれぞれ測定し、これらの距離を基にして、物体位置Pのx座標、y座標、z座標をそれぞれ求めることができるので、物体位置Pを測定できる。
 次に、第1の目印画像について、図3、図11A、図11B、図12A、及び、図12Bを用いて説明する。図11A及び図11Bは、物体Fとパネル表面55との距離が長い場合に、表示部49に表示される第1の目印画像61を説明する模式図である。図12A及び図12Bは、物体Fとパネル表面55との距離が短い場合に、表示部49に表示される第1の目印画像61を説明する模式図である。図11A及び図12Aは、タッチパネル式表示部403を上方から見た状態を示し、図11B及び図12Bは、タッチパネル式表示部403を側方から見た状態を示している。
 表示部49には、第1の目印画像61及び複数の所定画像63(例えば、アイコン)が表示されている。第1の目印画像61は、点線の二重円の画像である。点線の画像に限らず、実線の画像でもよいし、二重円の画像に限らず、一つの円の画像でもよい。
 表示制御部45によって、複数の所定画像63が表示部49に表示された状態で、座標測定部43は、パネル表面55の上方にある物体Fについて、物体位置Pを示すx座標、y座標、z座標を測定する。z座標が所定値以下、すなわち、物体Fとパネル表面55との距離が所定距離(例えば、10cm)以下になると、表示制御部45は、複数の所定画像63に加えて第1の目印画像61を表示部49に表示させる。
 第1の目印画像61は、物体位置Pのx座標とy座標とで定められる位置を中心とし、その位置の周囲を規定している。
 物体位置Pのz座標の値が小さくなるにしたがって、すなわち、物体Fとパネル表面55との距離が短くなるにしたがって、表示制御部45は、第1の目印画像61で規定される領域が徐々に(リニアに)小さくなるように、第1の目印画像61を表示部49に表示させる。
 物体位置Pのz座標の値がゼロ、すなわち、物体Fがパネル表面55にタッチしたときに、表示制御部45は、第1の目印画像61で規定される領域が最小になるように、第1の目印画像61を表示部49に表示させる。
 図11A及び図11Bに示すように、物体Fをパネル表面55から遠ざけた状態から、図12A及び図12Bに示すように、物体Fをパネル表面55に近づけると、表示制御部45は、第1の目印画像61で規定される領域が徐々に小さくなるように、第1の目印画像61を表示部49に表示させる。逆に、図12A及び図12Bに示すように、物体Fをパネル表面55に近づけた状態から、図11A及び図11Bに示すように、物体Fをパネル表面55から遠ざけると、表示制御部45は、第1の目印画像61で規定される領域が徐々に大きくなるように、第1の目印画像61を表示部49に表示させる。
 表示制御部45は、比較的大きい物体F(例えば、手のひら)の場合、第1の目印画像61を表示部49に表示させない。これについて説明する。図13は、パネル表面55の上方にある比較的大きい物体Fまでの距離を、第1~第4の測距センサーS1,S2,S3,S4のそれぞれで測定している状態を説明する説明図である。ここでの物体Fは、手を示している。
 第1~第4の測距センサーS1,S2,S3,S4は、物体Fまでの最短距離を測定する。第1の測距センサーS1を用いて測定した物体Fの位置を物体位置P1、第2の測距センサーS2を用いて測定した物体Fの位置を物体位置P2、第3の測距センサーS3を用いて測定した物体Fの位置を物体位置P3、第4の測距センサーS4を用いて測定した物体Fの位置を物体位置P4とする。
 図14は、第1~第4の測距センサーS1,S2,S3,S4の位置と、物体位置P1,P2,P3,P4とで規定される立体の平面図を示している。比較的大きい物体Fの場合、物体位置が一点に定まらない。よって、物体Fとパネル表面55との距離が一つに定まらないので、表示制御部45は、第1の目印画像61を表示部49に表示させない。
 物体Fの大きさにより、第1の目印画像61を表示するか否かは、次にようにして判断することができる。上述したように、図6に示す三角形Iを用いて物体位置Pのx座標x1、y座標y1を求めることができ、三角形IIを用いて物体位置Pのx座標x1、y座標y1を求めることができ、三角形IIIを用いて物体位置Pのx座標x1、y座標y1を求めることができ、三角形IVを用いて物体位置Pのx座標x1、y座標y1を求めることができる。
 図3に示す座標演算部53は、三角形Iを用いて物体位置Pのx座標x1を求める式とy座標y1を求める式を予め記憶している。座標演算部53は、その式、第1の測距センサーS1により測定された物体Fまでの距離(=辺a)、及び、第2の測距センサーS2により測定された物体Fまでの距離(=辺b)を用いて、物体位置Pのx座標x1、y座標y1を演算する。
 座標演算部53は、三角形IIを用いて物体位置Pのx座標x1を求める式とy座標y1を求める式を予め記憶している。座標演算部53は、その式、第2の測距センサーS2により測定された物体Fまでの距離(=辺b)、及び、第3の測距センサーS3により測定された物体Fまでの距離(=辺c)を用いて、物体位置Pのx座標x1、y座標y1を演算する。
 座標演算部53は、三角形IIIを用いて物体位置Pのx座標x1を求める式とy座標y1を求める式を予め記憶している。座標演算部53は、その式、第3の測距センサーS3により測定された物体Fまでの距離(=辺c)、及び、第4の測距センサーS4により測定された物体Fまでの距離(=辺d)を用いて、物体位置Pのx座標x1、y座標y1を演算する。
 座標演算部53は、三角形IVを用いて物体位置Pのx座標x1を求める式とy座標y1を求める式を予め記憶している。座標演算部53は、その式、第4の測距センサーS4により測定された物体Fまでの距離(=辺d)、及び、第1の測距センサーS1により測定された物体Fまでの距離(=辺a)を用いて、物体位置Pのx座標x1、y座標y1を演算する。
 以上のように、座標演算部53は、第1~第4の測距センサーS1,S2,S3,S4で測定されたそれぞれの距離を辺a,b,c,dとし、物体位置Pを頂点とする四つの三角形I,II,III,IVのそれぞれを用いて、物体位置Pのx座標x1及びy座標y1を算出する。
 四つの三角形I,II,III,IVのそれぞれを用いて算出したx座標x1が全て一致し、かつ、四つの三角形I,II,III,IVのそれぞれを用いて算出したy座標y1が全て一致する条件(一致条件)を満たす場合、物体位置Pが一点に定まる。
 座標演算部53は、物体位置Pのz座標z1を求める式を、予め記憶している。座標演算部53は、一致条件を満たすと判断した場合、物体位置Pのz座標z1を求める式を用いて、z座標z1を算出する。座標演算部53は、物体位置Pのx座標x1、y座標y1、及び、z座標z1のデータを表示制御部45に送る。表示制御部45は、そのデータを基にして、第1の目印画像61を表示部49に表示させる。
 座標演算部53は、一致条件を満たすと判断しない場合、物体位置Pのz座標z1を算出しない。物体位置Pのx座標x1、y座標y1、及び、z座標z1のデータは、表示制御部45に送られないので、表示制御部45は、第1の目印画像61を表示部49に表示させない。
 物体Fの大きさにより、第1の目印画像61を表示するか否かを判断するために、四つの測距センサーS1,S2,S3,S4が用いられている。しかし、少なくとも三つの測距センサーがあればよい。これを、第1~第3の測距センサーS1,S2,S3を例にして説明する。図6を参照して、座標演算部53は、第1の測距センサーS1によって測定された距離(=辺a)と第2の測距センサーS2によって測定された距離(=辺b)とを用いて、上述したように物体位置Pのx座標、y座標を算出する。
 同様に、座標演算部53は、第2の測距センサーS2によって測定された距離(=辺b)と第3の測距センサーS3によって測定された距離(=辺c)とを用いて、上述したように物体位置Pのx座標、y座標を算出する。これにより、x座標とy座標の組み合わせが二つ求まる。
 座標演算部53は、二つの組み合わせにおいて、x座標が全て一致し、かつ、y座標が全て一致する条件を満たす場合、z座標を算出し、一致条件を満たさない場合、z座標を算出しない。
 第1実施形態に係る表示装置3の動作について、図3、図11A、図11B、図12A、図12B、図15及び図16を用いて説明する。図15及び図16は、その動作を説明するフローチャートである。表示部49において、画面の表示が消された状態から説明する。所定画像63は、アイコンを例に説明する。表示制御部45は、省エネルギーのために、予め定められた条件になれば、表示部49において、画面の表示を消した状態に制御する(ステップS1)。
 第1~第4の測距センサーS1,S2,S3,S4のいずれによっても、物体Fが検知されない場合(ステップS2でNo)、ステップS1に戻る。
 第1~第4の測距センサーS1,S2,S3,S4の少なくとも一つによって、物体Fが検知された場合(ステップS2でYes)、表示制御部45は、図11Aに示す複数の所定画像63を含む画面を表示部49に表示させる(ステップS3)。この時点では、第1の目印画像61は表示されていない。
 表示制御部45によって、複数の所定画像63が表示部49に表示された状態で、座標測定部43は、物体位置Pが一点に定まるか否かを判断する(ステップS4)。物体位置Pが一点に定まると判断されない場合(ステップS4でNo)、表示制御部45は、第1の目印画像61を表示部49に表示させない(ステップS5)。そして、ステップS3に戻る。
 座標測定部43は、物体位置Pが一点に定まると判断した場合(ステップS4でYes)、物体位置Pとパネル表面55との距離が所定距離(例えば、10cm)以下か否かを判断する(ステップS6)。
 物体位置Pとパネル表面55との距離が所定距離以下と判断されない場合(ステップS6でNo)、表示制御部45は、第1の目印画像61を表示部49に表示させない(ステップS5)。
 物体位置Pとパネル表面55との距離が所定距離以下と判断された場合(ステップS6でYes)、表示制御部45は、図11Aに示すように、第1の目印画像61を複数の所定画像63と共に表示部49に表示させる(ステップS7)。
 座標測定部43は、物体位置Pが変化したか否か判断する(ステップS8)。物体位置Pが変化しない場合(ステップS8でNo)、ステップS8が繰り返される。
 物体位置Pが変化した場合(ステップS8でYes)、座標測定部43は、物体位置Pとパネル表面55との距離が短くなったか否かを判断する(ステップS9)。
 物体位置Pとパネル表面55との距離が短くなったと判断された場合(ステップS9でYes)、表示制御部45は、図12Aに示すように、第1の目印画像61で規定される領域が小さくなるように、第1の目印画像61を表示部49に表示させる(ステップS10)。
 タッチパネル部51が、パネル表面55に物体Fがタッチしたことを検知しない場合(ステップS11でNo)、ステップS8に戻る。
 タッチパネル部51が、パネル表面55に物体Fがタッチしたことを検知した場合(ステップS11でYes)、表示制御部45は、表示部49の画面を所定の画面に切り換える(ステップS12)。詳しくは、パネル表面55がタッチされることにより、パネル表面55を介して押下された所定画像63(アイコン)の機能を実行するための画面を表示部49に表示させる。すなわち、表示制御部45は、表示制御において、複数の所定画像63を含む第1の画面を表示部49に表示させている。タッチパネル部51が、複数の所定画像63のうち、いずれかの画像上のパネル表面55に物体Fがタッチしたことを検知したとき、表示制御部45は、表示制御において、表示部49に表示させる画面を、第1の画面から、物体Fがタッチしたパネル表面55下の所定画像63に割り当てられた第2の画面に切り替える。
 座標測定部43が、物体位置Pとパネル表面55との距離が大きくなったと判断した場合(ステップS9でNo)、表示制御部45は、第1の目印画像61で規定される領域が大きくなるように、第1の目印画像61を表示部49に表示させる(ステップS13)。そして、ステップS8に戻る。
 第1実施形態の主な効果を説明する。第1実施形態に係る表示装置3では、図5A及び図5Bに示すように、パネル表面55から所定距離内にある物体F(例えば、指先)の位置の変化に応じて、物体位置Pを示すx座標、y座標、及び、z座標を測定する。そして、図11A及び図11Bに示すように、x座標とy座標とで定められる位置の周囲を規定する第1の目印画像61を、押下される対象となる所定画像63と共に表示部49に表示する。z座標が小さくなるにしたがって、すなわち、物体Fがパネル表面55に近づくにしたがって、図12A及び図12Bに示すように、第1の目印画像61で規定される領域が小さくなるように、第1の目印画像61を表示部49に表示する。
 従って、第1実施形態に係る表示装置3によれば、第1の目印画像61で規定される領域が、押下したい所定画像63と重なる状態を保って、物体Fをパネル表面55に近づけてパネル表面55にタッチすることにより、ミスタッチを防止できる。
 また、タッチパネル式表示部403は、図11A及び図11Bに示すように、パネル表面55のタッチされた位置を検知する透明のタッチパネル部51を、表示部49の上に載せた構造を有している。表示部49と指先等の物体Fとの間に、タッチパネル部51が存在するので、指先等の物体Fと所定画像63との距離は、指先等の物体Fとパネル表面55との距離と異なる。タッチパネル式表示部403では、所定画像63を見ながらタッチパネル部51のパネル表面55にタッチするので、指先等の物体Fがパネル表面55にいつタッチするのか、少し分かり難い。
 第1実施形態に係る表示装置3によれば、上述したように、指先等の物体Fがパネル表面55に近づくにしたがって、第1の目印画像61で規定される領域が小さくなるように、第1の目印画像61を表示部49に表示する。よって、第1の目印画像61を見ることにより、指先等の物体Fとパネル表面55との距離感を視覚的に認識することができる。
 第1の実施形態は、さらに次の効果を有する。表示制御部45は、表示部49において所定画像63を含む画面の表示を消した状態で、第1~第4の測距センサーS1,S2,S3,S4により物体Fが検知された場合、所定画像63を含む記画面を表示部49に表示させている(ステップS1,S2,S3)。
 このように、第1実施形態では、表示部49において、画面の表示が消された状態から画面を表示する状態に復帰させるスイッチとして、第1~第4の測距センサーS1,S2,S3,S4を用いている。従って、第1実施形態によれば、近接センサーを新たに設けることなく、表示部49において、画面の表示が消された状態から画面を表示する状態に復帰させることができる。
 第1の目印画像61は、二重円の画像に限らず、物体位置Pのx座標とy座標とで定められる位置の周囲を規定できる画像であればよい。第1の目印画像61の他の例として、x座標とy座標とで定められる位置の四方に位置する四つの三角形画像が挙げられる。図17は、物体Fとパネル表面55との距離が長い場合に、第1の目印画像65の他の例が表示部49に表示された状態を示すタッチパネル式表示部403の平面図である。図18は、物体Fとパネル表面55との距離が短い場合に、第1の目印画像65の他の例が表示部49に表示された状態を示すタッチパネル式表示部403の平面図である。
 第1の目印画像65は、四つの三角形画像65a,65b,65c,65dにより構成される。三角形画像65aと三角形画像65bとが、y軸方向に沿って配置されている。三角形画像65cと三角形画像65dとが、x軸方向に沿って配置されている。三角形画像65aの頂点と三角形画像65bの頂点とを結ぶ線と、三角形画像65cの頂点と三角形画像65dの頂点とを結ぶ線との交点が、物体位置Pのx座標x1、y座標y1となる。
 次に、第2実施形態に係る表示装置3について、第1実施形態に係る表示装置3との相違を中心にして説明する。第2実施形態では、第1の目印画像61に加えて第2の目印画像が表示部49に表示される。
 図19A及び図19Bは、物体Fとパネル表面55との距離が長い場合に、表示部49に表示される第1の目印画像61及び第2の目印画像67を説明する模式図である。図20A及び図20Bは、物体Fとパネル表面55との距離が短い場合に、表示部49に表示される第1の目印画像61及び第2の目印画像67を説明する模式図である。図19A及び図20Aは、タッチパネル式表示部403を上方から見た状態を示し、図19B及び図20Bは、タッチパネル式表示部403を側方から見た状態を示している。
 表示部49には、第1の目印画像61、第2の目印画像67及び複数の所定画像63を含む画面が表示されている。この画面は、図3に示す表示制御部45によって表示部49に表示される。第1の目印画像61及び複数の所定画像63は、図11A及び図12Aで示される第1の目印画像61及び複数の所定画像63と同じである。
 第2の目印画像67は、物体位置Pのx座標x1とy座標y1とで定められる位置を示す画像である。第2の目印画像67は、x軸を示す線画像67a(第1方向に延びる一本の線画像)とy軸を示す線画像67b(第2方向に延びる一本の線画像)とにより構成される。
 第2の目印画像67のデータは、図3に示す画面データ記憶部47に予め記憶されている。表示制御部45は、第1の目印画像61を表示部49に表示させる場合、第1の目印画像61と共に第2の目印画像67を表示部49に表示させる。
 第2実施形態に係る表示装置3は、第1実施形態に係る表示装置3が有する効果に加えて、次の効果を有する。指先等の物体Fとパネル表面55との距離が長い場合、その距離が短い場合と比べて、第1の目印画像61で規定される領域が大きいので、物体Fがパネル表面55のどの位置の上方にあるのか分かりにくい。第2実施形態によれば、x座標x1とy座標y1とで定められる位置を示す第2の目印画像67を、第1の目印画像61及び所定画像63と共に表示するので、物体Fとパネル表面55との距離が長い場合でも、物体Fがパネル表面55のどの位置の上方にあるのか分かる。
 なお、第2の目印画像の他の例として、x座標とy座標とで定められる位置を示す点画像がある。

Claims (18)

  1.  タッチされるパネル表面を有し、前記パネル表面のタッチされた位置を検出するタッチパネル部と、
     前記パネル表面を介して押下される所定画像を表示する表示部と、
     前記パネル表面上の座標平面を規定する方向を第1方向及び第2方向とし、前記パネル表面に対して垂直な方向を第3方向とし、前記パネル表面から所定距離内にある物体の位置の変化に応じて、前記物体の位置を示す前記第1方向の座標、前記第2方向の座標、及び、前記第3方向の座標を測定する座標測定部と、
     前記座標測定部によって前記第1方向の座標、前記第2方向の座標、及び、前記第3方向の座標が測定されたとき、前記第1方向の座標と前記第2方向の座標とで定められる位置の周囲を規定する第1の目印画像を、前記所定画像と共に前記表示部に表示させ、前記第3方向の座標が小さくなるにしたがって、前記第1の目印画像で規定される領域が小さくなるように、前記第1の目印画像を前記表示部に表示させる表示制御を実行する表示制御部と、を備える表示装置。
  2.  前記表示制御部は、前記表示制御において、前記第1方向の座標と前記第2方向の座標とで定められる位置を示す第2の目印画像を、前記第1の目印画像及び前記所定画像と共に前記表示部に表示させる請求項1に記載の表示装置。
  3.  前記第2の目印画像は、前記第1方向に延びる一本の線画像と前記第2方向に延びる一本の線画像とを含む請求項2に記載の表示装置。
  4.  前記座標測定部は、互いに離して配置され、前記物体との距離をそれぞれ測定する三つ以上の複数の測距センサーと、前記複数の測距センサーで測定されたそれぞれの距離を用いて、前記第1方向の座標と前記第2方向の座標との組み合わせを複数算出する座標演算部と、を含み、
     前記座標測定部は、前記複数の組み合わせにおいて、前記第1方向の座標が全て一致し、かつ、前記第2方向の座標が全て一致する条件を満たす場合、前記第3方向の座標を算出し、前記条件を満たさない場合、前記第3方向の座標を算出せず、
     前記表示制御部は、前記表示制御において、前記第3方向の座標が算出された場合、前記第1の目印画像を前記表示部に表示させ、前記第3方向の座標が算出されない場合、前記第1の目印画像を前記表示部に表示させない請求項1に記載の表示装置。
  5.  前記表示制御部は、前記表示部において前記所定画像を含む画面の表示を消した状態で、前記複数の測距センサーの少なくとも一つにより前記物体が検知された場合、前記画面を前記表示部に表示させる請求項4に記載の表示装置。
  6.  前記表示制御部は、前記表示制御において、前記所定画像を含む第1の画面を前記表示部に表示させており、
     前記タッチパネル部が、前記所定画像上の前記パネル表面に前記物体がタッチしたことを検知したとき、前記表示制御部は、前記表示制御において、前記表示部に表示させる画面を、前記第1の画面から、前記所定画像に割り当てられた第2の画面に切り替える請求項1に記載の表示装置。
  7.  前記表示制御部は、前記表示制御において、前記第3方向の座標が大きくなるにしたがって、前記第1の目印画像で規定される領域が大きくなるように、前記第1の目印画像を前記表示部に表示させる請求項1に記載の表示装置。
  8.  前記表示制御部は、前記表示制御において、複数の前記所定画像を前記表示部に表示させる請求項1に記載の表示装置。
  9.  前記表示制御部は、前記表示制御において、前記所定画像を前記表示部に表示させた状態で、前記第3方向の座標が所定値以下になれば、前記所定画像に加えて前記第1の目印画像を前記表示部に表示させる請求項1に記載の表示装置。
  10.  前記表示制御部は、前記表示制御において、前記第3方向の座標が小さくなるにしたがって、前記第1の目印画像で規定される領域が徐々に小さくなるように、前記第1の目印画像を前記表示部に表示させる請求項1に記載の表示装置。
  11.  前記表示制御部は、前記表示制御において、前記所定画像としてアイコンを前記表示部に表示させる請求項1に記載の表示装置。
  12.  前記表示制御部は、前記表示制御において、前記所定画像としてソフトキーを前記表示部に表示させる請求項1に記載の表示装置。
  13.  前記表示制御部は、前記表示制御において、前記第1の目印画像として円の画像を前記表示部に表示させる請求項1に記載の表示装置。
  14.  前記表示制御部は、前記表示制御において、前記第1の目印画像として、前記第1方向の座標と前記第2方向の座標とで定められる位置の四方に位置する四つの三角形画像を、前記表示部に表示させる請求項1に記載の表示装置。
  15.  前記表示制御部は、前記表示制御において、前記第1方向の座標と前記第2方向の座標とで定められる位置を示す第2の目印画像、前記第1の目印画像、及び、複数の前記所定画像を含む第1の画面を前記表示部に表示させ、
     前記タッチパネル部が、前記複数の所定画像のうち、いずれかの画像上の前記パネル表面に前記物体がタッチしたことを検知したとき、前記表示制御部は、前記表示制御において、前記表示部に表示させる画面を、前記第1の画面から、前記物体がタッチした前記パネル表面下の前記所定画像に割り当てられた第2の画面に切り替え、
     前記表示制御部は、前記表示制御において、前記第3方向の座標が大きくなるにしたがって、前記第1の目印画像で規定される領域が大きくなるように、前記第1の目印画像を前記表示部に表示させる請求項1に記載の表示装置。
  16.  前記座標測定部は、互いに離して配置され、前記物体との距離をそれぞれ測定する三つ以上の複数の測距センサーと、前記複数の測距センサーで測定されたそれぞれの距離を用いて、前記第1方向の座標と前記第2方向の座標との組み合わせを複数算出する座標演算部と、を含み、
     前記座標測定部は、前記複数の組み合わせにおいて、前記第1方向の座標が全て一致し、かつ、前記第2方向の座標が全て一致する条件を満たす場合、前記第3方向の座標を算出し、前記条件を満たさない場合、前記第3方向の座標を算出せず、
     前記表示制御部は、前記表示制御において、前記第3方向の座標が算出された場合、前記第1の目印画像を前記表示部に表示させ、前記第3方向の座標が算出されない場合、前記第1の目印画像を前記表示部に表示させない請求項15に記載の表示装置。
  17.  前記表示制御部は、前記表示部において前記複数の所定画像を含む画面の表示を消した状態で、前記複数の測距センサーの少なくとも一つにより前記物体が検知された場合、前記画面を前記表示部に表示させる請求項16に記載の表示装置。
  18.  請求項1に記載の表示装置を含む操作部を備える画像形成装置。
PCT/JP2014/001478 2013-05-28 2014-03-14 表示装置及び画像形成装置 WO2014192204A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015519614A JP5927342B2 (ja) 2013-05-28 2014-03-14 表示装置及び画像形成装置
US14/758,292 US9407779B2 (en) 2013-05-28 2014-03-14 Display apparatus and image forming apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013-111884 2013-05-28
JP2013111884 2013-05-28

Publications (1)

Publication Number Publication Date
WO2014192204A1 true WO2014192204A1 (ja) 2014-12-04

Family

ID=51988259

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/001478 WO2014192204A1 (ja) 2013-05-28 2014-03-14 表示装置及び画像形成装置

Country Status (3)

Country Link
US (1) US9407779B2 (ja)
JP (1) JP5927342B2 (ja)
WO (1) WO2014192204A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111064847A (zh) * 2019-12-14 2020-04-24 惠州Tcl移动通信有限公司 一种防误触方法、装置、存储介质及电子设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006235859A (ja) * 2005-02-23 2006-09-07 Yamaha Corp 座標入力装置
JP2013016060A (ja) * 2011-07-05 2013-01-24 Shimane Prefecture 操作入力装置および操作判定方法並びにプログラム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4739129A (en) * 1987-04-01 1988-04-19 Wyle Laboratories Power cable with replaceable switch assembly
JPH0816353A (ja) 1994-06-28 1996-01-19 Sharp Corp オブジェクト表示拡大方法
JP4479962B2 (ja) 2005-02-25 2010-06-09 ソニー エリクソン モバイル コミュニケーションズ, エービー 入力処理プログラム、携帯端末装置、及び入力処理方法
JP4766340B2 (ja) * 2006-10-13 2011-09-07 ソニー株式会社 近接検知型情報表示装置およびこれを使用した情報表示方法
CN102763027A (zh) * 2010-02-17 2012-10-31 福美化学工业株式会社 显示面板用透明保护板和显示装置
KR101522991B1 (ko) * 2010-09-22 2015-05-26 시마네켄 조작입력장치 및 방법, 그리고 프로그램
JP5708083B2 (ja) * 2011-03-17 2015-04-30 ソニー株式会社 電子機器、情報処理方法、プログラム、及び電子機器システム
JP5920343B2 (ja) 2011-06-10 2016-05-18 日本電気株式会社 入力装置およびタッチパネルの制御方法
JP5921835B2 (ja) * 2011-08-23 2016-05-24 日立マクセル株式会社 入力装置
KR20150026095A (ko) * 2013-08-30 2015-03-11 삼성전자주식회사 전자 장치에서 차트를 표시하는 장치 및 방법
JP6308769B2 (ja) * 2013-12-18 2018-04-11 キヤノン株式会社 情報処理装置、その制御方法、プログラム、及び記憶媒体
JP5901663B2 (ja) * 2014-01-15 2016-04-13 京セラドキュメントソリューションズ株式会社 表示装置及び表示制御プログラム
US9727161B2 (en) * 2014-06-12 2017-08-08 Microsoft Technology Licensing, Llc Sensor correlation for pen and touch-sensitive computing device interaction

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006235859A (ja) * 2005-02-23 2006-09-07 Yamaha Corp 座標入力装置
JP2013016060A (ja) * 2011-07-05 2013-01-24 Shimane Prefecture 操作入力装置および操作判定方法並びにプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111064847A (zh) * 2019-12-14 2020-04-24 惠州Tcl移动通信有限公司 一种防误触方法、装置、存储介质及电子设备

Also Published As

Publication number Publication date
JP5927342B2 (ja) 2016-06-01
US20160044188A1 (en) 2016-02-11
US9407779B2 (en) 2016-08-02
JPWO2014192204A1 (ja) 2017-02-23

Similar Documents

Publication Publication Date Title
JP5887310B2 (ja) 表示操作装置
JP2008021094A (ja) 操作装置及び画像形成装置
JP5927342B2 (ja) 表示装置及び画像形成装置
JP6660084B2 (ja) タッチパネル装置及び画像表示方法
US20160054848A1 (en) Display controlling device and electronic apparatus
US10250763B2 (en) Input device, image forming apparatus, and non-transitory computer readable medium
US11523011B2 (en) Image forming apparatus and numerical value counting method
JP5941896B2 (ja) 操作表示装置
JP6304071B2 (ja) 画像処理装置
US20160261768A1 (en) Display input device and image forming apparatus including same, and method for controlling display input device
US9819817B2 (en) Display input device and method of controlling display input device
JP2011186535A (ja) 入力装置
JP6014558B2 (ja) 表示装置
JP6221622B2 (ja) タッチパネル装置および画像形成装置
JP6606591B2 (ja) タッチパネル装置及び画像表示方法
JP6369243B2 (ja) 操作表示装置、プログラム、操作表示システム
JP6190925B2 (ja) 表示装置
JP2011175516A (ja) 入力装置及び入力制御プログラム
JP6299883B2 (ja) 表示装置、画像形成装置、及び表示方法
US10212294B2 (en) Input device and non-transitory computer readable medium
JP2022130904A (ja) 操作入力装置及び画像形成装置
JP6150689B2 (ja) 画像形成装置及び設定受付方法
JP5858582B2 (ja) 表示入力装置および画像形成装置
JP2014232475A (ja) 表示装置、電子機器、及び画像形成装置
JP2014024336A (ja) 画像形成装置、記録媒体決定方法、コンピュータプログラム及び記録媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14804270

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2015519614

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14758292

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14804270

Country of ref document: EP

Kind code of ref document: A1