WO2019004033A1 - コストを抑えてその機能の拡張を可能にする画像形成装置およびマイコンデバイス - Google Patents

コストを抑えてその機能の拡張を可能にする画像形成装置およびマイコンデバイス Download PDF

Info

Publication number
WO2019004033A1
WO2019004033A1 PCT/JP2018/023539 JP2018023539W WO2019004033A1 WO 2019004033 A1 WO2019004033 A1 WO 2019004033A1 JP 2018023539 W JP2018023539 W JP 2018023539W WO 2019004033 A1 WO2019004033 A1 WO 2019004033A1
Authority
WO
WIPO (PCT)
Prior art keywords
image forming
forming apparatus
microcomputer
state
data
Prior art date
Application number
PCT/JP2018/023539
Other languages
English (en)
French (fr)
Inventor
英史 佐々木
Original Assignee
キヤノン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by キヤノン株式会社 filed Critical キヤノン株式会社
Publication of WO2019004033A1 publication Critical patent/WO2019004033A1/ja
Priority to US16/708,764 priority Critical patent/US20200120232A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/32561Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device using a programmed control device, e.g. a microprocessor
    • H04N1/32571Details of system components
    • H04N1/32577Input interface
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00885Power supply means, e.g. arrangements for the control of power supply to the apparatus or components thereof
    • H04N1/00888Control thereof
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B41PRINTING; LINING MACHINES; TYPEWRITERS; STAMPS
    • B41JTYPEWRITERS; SELECTIVE PRINTING MECHANISMS, i.e. MECHANISMS PRINTING OTHERWISE THAN FROM A FORME; CORRECTION OF TYPOGRAPHICAL ERRORS
    • B41J29/00Details of, or accessories for, typewriters or selective printing mechanisms not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B41PRINTING; LINING MACHINES; TYPEWRITERS; STAMPS
    • B41JTYPEWRITERS; SELECTIVE PRINTING MECHANISMS, i.e. MECHANISMS PRINTING OTHERWISE THAN FROM A FORME; CORRECTION OF TYPOGRAPHICAL ERRORS
    • B41J29/00Details of, or accessories for, typewriters or selective printing mechanisms not otherwise provided for
    • B41J29/38Drives, motors, controls or automatic cut-off devices for the entire printing mechanism
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B41PRINTING; LINING MACHINES; TYPEWRITERS; STAMPS
    • B41JTYPEWRITERS; SELECTIVE PRINTING MECHANISMS, i.e. MECHANISMS PRINTING OTHERWISE THAN FROM A FORME; CORRECTION OF TYPOGRAPHICAL ERRORS
    • B41J29/00Details of, or accessories for, typewriters or selective printing mechanisms not otherwise provided for
    • B41J29/42Scales and indicators, e.g. for determining side margins
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03GELECTROGRAPHY; ELECTROPHOTOGRAPHY; MAGNETOGRAPHY
    • G03G21/00Arrangements not provided for by groups G03G13/00 - G03G19/00, e.g. cleaning, elimination of residual charge
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/32502Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device in systems having a plurality of input or output devices
    • H04N1/32507Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device in systems having a plurality of input or output devices a plurality of input devices
    • H04N1/32512Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device in systems having a plurality of input or output devices a plurality of input devices of different type, e.g. internal and external devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/32502Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device in systems having a plurality of input or output devices
    • H04N1/32523Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device in systems having a plurality of input or output devices a plurality of output devices
    • H04N1/32529Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device in systems having a plurality of input or output devices a plurality of output devices of different type, e.g. internal and external devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/32502Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device in systems having a plurality of input or output devices
    • H04N1/32523Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device in systems having a plurality of input or output devices a plurality of output devices
    • H04N1/32539Detecting or indicating the status of the output devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/32561Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device using a programmed control device, e.g. a microprocessor
    • H04N1/32571Details of system components
    • H04N1/32587Controller
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/32609Fault detection or counter-measures, e.g. original mis-positioned, shortage of paper

Definitions

  • the present invention relates to an image forming apparatus and a microcomputer device, and more particularly to an image forming apparatus in which peripheral parts can be optionally added.
  • an image forming apparatus such as a printer or a multifunction peripheral includes a sensor, a chip, an actuator, and the like (hereinafter referred to as “peripheral parts”) in addition to hardware components for performing basic printing functions.
  • peripheral parts for example, in an image forming apparatus including a human sensor, when the human sensor detects the approach of the user, the user position and height are determined, and the user can easily handle the jam generated in the image forming apparatus.
  • an image forming apparatus which notifies the user of the change to and (see Patent Document 1). As a result, even if jamming occurs at a plurality of locations in a state in which the sheet feeding apparatus and the post-processing apparatus are connected to the image forming apparatus, the user can efficiently release the jam in a short time.
  • an image forming apparatus in which a temperature and humidity sensor, which is one of peripheral parts, can be added later (see Patent Document 2).
  • an environment sensor such as a temperature and humidity sensor may be attached only when the control set in the image forming apparatus needs to be changed. That is, the image forming apparatus can be used with the minimum power consumption according to the environment in which the image forming apparatus is used.
  • peripheral parts are mounted in the image forming apparatus, it is necessary to consider the trade-off between the merit that the function can be added or expanded to the image forming apparatus and the disadvantage that the cost increases. Therefore, the forms of mounting peripheral parts in an image forming apparatus are roughly divided into two types, standard mounting and option mounting.
  • the standard mounting mode peripheral parts are incorporated in advance in the image forming apparatus as described in Patent Document 1.
  • the option mounting mode as described in Patent Document 2, peripheral parts are added and mounted later in the image forming apparatus.
  • an object of the present invention is to provide an image forming apparatus and a microcomputer device capable of eliminating at least one of the above-mentioned problems.
  • an image forming apparatus is an image forming apparatus having a function of forming an image on a sheet or forming an image as data, and managing the state of the image forming apparatus.
  • Status management means communication means for communicating with a microcomputer device mounted on the image forming apparatus, command processing for receiving request data from the microcomputer device by the communication means, and transmitting response data to the microcomputer device
  • the command processing unit acquires the state of the image forming apparatus from the status management unit based on the received request data, and the response is performed according to the acquired state of the image forming apparatus. It is characterized by determining data.
  • FIG. 1 is a block diagram showing a hardware configuration of an image forming apparatus according to an embodiment of the image forming apparatus of the present invention.
  • FIG. 2 is a block diagram showing the configuration of software used in the embodiment of the image forming apparatus of the present invention.
  • FIG. 3 is a block diagram for describing a configuration of an example of the microcomputer device shown in FIG. 1.
  • FIG. 4 is a block diagram showing an example of the software configuration of the microcomputer device shown in FIGS. 3A to 3D.
  • FIG. 5A is a flowchart for illustrating microcomputer command processing executed by the microcomputer command processing unit shown in FIG. 2;
  • FIG. 5B is a flowchart for illustrating microcomputer command processing executed by the microcomputer command processing unit shown in FIG.
  • FIG. 6 is a diagram showing an example of request data.
  • FIG. 7 is a diagram showing an example of request data.
  • FIG. 8 is a diagram showing an example of response data.
  • FIG. 9 is a diagram showing another example of response data.
  • FIG. 12 is a diagram showing an example of an utterance command for a display screen ID.
  • FIG. 13 is a diagram showing an example of an operation in the error recovery message utterance process described with reference to FIGS. 11A and 11B.
  • FIG. 14A is a flowchart for illustrating the consumables remaining amount display process executed by the microcomputer device control unit shown in FIG. 4;
  • FIG. 14B is a flowchart for illustrating the consumables remaining amount display process executed by the microcomputer device control unit shown in FIG. 4;
  • FIG. 15A and FIG. 15B This is a view showing an example of the operation in the consumables remaining amount display process described in FIG. 14A and FIG. 14B.
  • FIG. 16A is a flowchart for illustrating a power control assistance process executed by the microcomputer device controller shown in FIG. 4;
  • FIG. 16B is a flowchart for illustrating a power control assistance process executed by the microcomputer device controller shown in FIG. 4;
  • FIG. 17 is a view showing the processing result in the power control assistance processing described with reference to FIGS. 16A and 16B.
  • FIG. 18 is a flow chart for explaining peripheral environment logging processing executed by the microcomputer device control unit shown in FIG. 4;
  • the peripheral parts are mounted on the image forming apparatus, and the image forming apparatus controls the peripheral parts using control commands defined for each peripheral part, thereby realizing various functions.
  • Peripheral parts are required to have high functionality and performance that can meet the diverse needs of users.
  • peripheral parts are required to have long-term stable supply that can be stably obtained over a long period of time. Therefore, peripheral parts that can be attached to the image forming apparatus are limited.
  • the cost for mounting the peripheral part increases in order to solve the problem of functionality and performance or the problem of long-term stable supply of parts.
  • a configuration in which peripheral parts are standard mounted is desirable.
  • a human sensor can reduce the complexity of paper transport of an imaging device (especially targeted for commercial printing) and is beneficial for most users. Therefore, it is desirable that the human sensor be standard mounted on the image forming apparatus.
  • peripheral parts For functions useful to some users of the image forming apparatus, a configuration in which peripheral parts are optionally mounted is desirable.
  • the temperature and humidity sensor solves problems caused by the user's environment, and is useful for some users. Therefore, it is desirable that the temperature and humidity sensor be optionally installed in the image forming apparatus. A mechanism for mounting these options will be described in the present embodiment.
  • FIG. 1 is a block diagram showing a hardware configuration of an image forming apparatus 102 as an example of an embodiment of the image forming apparatus 102 according to the present invention.
  • the data processing apparatus 101 (for example, a PC) generates PDL data, and transmits the PDL data to the image forming apparatus 102.
  • the image forming apparatus 102 receives PDL data transmitted from the data processing apparatus 101, and forms an image on a sheet (paper medium) based on image data corresponding to the PDL data.
  • the image forming apparatus 102 may be a multifunction peripheral having a scanner function and a fax function. In this case, it may have a function of forming an image of various electronic text files based on the original data read and acquired by the scanner function and the original data received by the FAX function. Alternatively, it may have a function of forming an image on a sheet based on the original data read and acquired by the scanner function.
  • the means for forming an image on a sheet is not limited to the electrophotographic method, and may be realized by another means such as an inkjet.
  • a microcomputer device 103 is connected to the image forming apparatus 102.
  • the microcomputer device 103 is an apparatus for optionally mounting peripheral parts in the image forming apparatus 102 as described later.
  • the image forming apparatus 102 includes a controller 110, a UI panel 111, and a print engine 112.
  • the UI panel 111 is a user interface and has a display unit for displaying various information to the user and an operation unit for receiving an operation by the user.
  • the UI panel 111 may include a touch panel or the like in addition to physical buttons.
  • the UI panel 111 may have a function of notifying of an error and a warning generated in the image forming apparatus 102 by lighting or blinking of the LED.
  • the UI panel 111 may have a function of notifying of an error and a warning generated in the image forming apparatus 102 by a sound such as a buzzer.
  • the controller 110 generates bitmap data (image data) for printing based on PDL data transmitted from the data processing apparatus 101. Then, the controller 110 transmits the generated bitmap data to the print engine 112. Note that, for example, in order to print the setting and status regarding the image forming apparatus 101 as a report, the controller 110 itself can generate PDL data and issue a print instruction.
  • the print engine 112 forms an image on a sheet using toner based on so-called electrophotographic method based on bitmap data received from the controller 110.
  • electrophotographic method using toner as a recording material for example, an inkjet method using ink as a recording material may be used.
  • the print engine 112 may include recording materials of a plurality of colors and perform color printing according to PDL data.
  • the print engine 112 may include a plurality of sheet feeding stages, and may feed sheets from the sheet feeding stage designated by the PDL data.
  • the controller 110 includes a CPU 121, a ROM 122, a RAM 123, an NIC 124, and a panel I / F 125. Further, the controller 110 has an engine I / F 126, an RIP unit 128, a built-in storage unit 130, an expansion I / F unit 132, and a timer (RTC: RealTimeClock) 134. The components are connected to one another by a bus 131.
  • RTC RealTimeClock
  • the CPU 121 develops a controller firmware (program) stored in the ROM 122 or the built-in storage unit 130 in the RAM 123 and executes the program. Thus, the CPU 121 controls the image forming apparatus 102.
  • the controller farm will be described later.
  • the ROM 122 is a non-volatile memory that stores controller firmware and the like that the CPU 121 executes. Note that, for example, an initial program having only basic functions such as a minimum file system access function may be activated, and the initial program may activate the controller firmware as a multistage configuration in which the controller firmware is further executed.
  • the RAM 123 stores the controller firmware etc. expanded from the ROM 122 or the built-in storage unit 130.
  • the RAM 123 also stores PDL data, intermediate data generated by interpreting the PDL data, and bitmap data generated by rendering the intermediate data. Furthermore, the RAM 123 also stores temporary various processing statuses and log information required for other processing.
  • the NIC 124 is a network interface controller that interconnects the data processing apparatus 101 and the controller 110 and relays data communication between them, that is, transmission and reception of data.
  • a wired connection or a wireless connection is used for connection.
  • the NIC 124 and the data processing apparatus 101 are connected using Ethernet (registered trademark) or the like.
  • the panel I / F 125 mutually connects the UI panel 111 and the controller 110 to relay data communication between them, that is, transmission and reception of data.
  • the engine I / F 126 interconnects the print engine 112 and the controller 110 to relay data communication between them, that is, transmission and reception of data.
  • the RIP unit 128 converts intermediate data into bitmap data, and develops the data in the RAM 123.
  • the CPU 121 may perform conversion processing of bitmap data without providing the RIP unit 128 in the controller 110.
  • the internal storage unit 130 is a non-volatile storage area for storing data of the information used by the controller 110 that is desired to be retained even when the power is turned off.
  • a flash ROM is used as the built-in storage unit 130.
  • a hard disk or a solid state drive may be used as the built-in storage unit 130.
  • the expansion I / F 132 is an interface for communicating between the image forming apparatus 102 and the microcomputer device 103.
  • a USB Universal Serial Bus
  • the power supply from the image forming apparatus 102 to the microcomputer device 103 is also taken into consideration.
  • the RTC 134 is a hard chip for managing time information in the image forming apparatus 102 in a non-volatile manner. By driving the RTC 134 by battery, the time information is periodically updated even after the image forming apparatus 102 is powered off.
  • FIG. 2 is a block diagram showing the configuration of software used in the embodiment of the image forming apparatus 102 of the present invention.
  • the controller firmware 150 includes a status management unit 162, a job control unit 163, a PDL control unit 164, an RIP control unit 165, a power control unit 175, an image control unit 171, and an engine control unit 172.
  • the status management unit 162 is a module that manages and controls the status of each module of the image forming apparatus.
  • the status management unit 162 holds the job execution state, the error state, the jam state, or the consumable state notified from the job control unit 163. Further, the status management unit 162 instructs the power control unit 175 to perform power control, and notifies the UI control unit 176 of a status change.
  • the status management unit 162 receives a status acquisition request or a status change request transmitted from the microcomputer device 103 via the microcomputer command processing unit 181 or from the data processing apparatus 101, the status management unit 162 sends a status acquisition request to each module or Make a status change request. Further, upon receiving the result of the status acquisition request or the result of the status change request from each module, the status management unit 162 notifies the microcomputer device 103 of the result.
  • the status management unit 162 notifies the ID of the screen displayed by the UI control unit 176 in response to a request from the microcomputer command processing unit 181.
  • the status management unit 162 performs write processing or read processing of data as nonvolatile data in the internal storage unit 130 in response to a request from the microcomputer command processing unit 181.
  • the status management unit 162 saves (logs) log data such as a sensor value, and date and time information of recording them.
  • the status management unit 162 performs user login processing based on the user name and password in response to a request from the microcomputer command processing unit 181.
  • the job control unit 163 is a module for printing the PDL data transmitted from the data processing apparatus 101 by the print engine 112. When notified of PDL data transmission from the network interface control unit 174, the job control unit 163 generates a PDL job in the RAM 123 based on the transmitted PDL data.
  • the PDL job includes instructions to the PDL control unit 164, the RIP control unit 165, the image control unit 171, and the engine control unit 172. If the PDL data includes a spool instruction, the PDL data may be held in the RAM 123 or the built-in storage unit 130.
  • the job control unit 163 instructs the PDL control unit 164, the RIP control unit 165, the image control unit 171, and the engine control unit 172, and receives a process completion notification or a result according to the instruction. Further, the job control unit 163 holds the error state and the jammed state of the print engine 112 notified from the engine control unit 172, and notifies the request from the status management unit 162 of the state.
  • the engine control unit 172 may directly notify the status management unit 162 of the state.
  • the PDL control unit 164 is a module for converting the PDL data notified from the network interface control unit 174 into intermediate data interpretable by the RIP control unit 165.
  • the PDL control unit 164 analyzes the PDL data notified from the network interface control unit 174 based on the setting in the PDL job in accordance with the instruction from the job control unit 163. Then, the PDL control unit 164 generates intermediate data in the RAM 123. If the PDL data includes print settings, the PDL control unit 164 may change the print settings of the PDL job.
  • the intermediate data is generated based on a data format that can be processed efficiently by the RIP unit 128. For example, in the scan line type RIP unit 128, overlapping of objects in PDL data is removed, small images are combined, and intermediate data is generated so that combining processing between objects can be more efficiently converted.
  • the PDL control unit 164 may have a plurality of PDL interpreters, and may use the PDL interpreter in accordance with the type of PDL data. Further, PDL data may be generated in the image forming apparatus using a user operation on the UI panel 111 as a trigger. For example, it can be used to realize a report print function that outputs a list of settings made in the image forming apparatus 102. When the PDL process is completed, the PDL control unit 164 notifies the job control unit 163 of the completion of the PDL process.
  • the RIP control unit 165 is a module that converts intermediate data generated by the PDL interpreter 164 into bitmap data used for printing and notifies the image control unit 171 of the bitmap data.
  • the RIP control unit 165 uses the RAM 123 for bitmap data based on the intermediate data generated by the PDL control unit 164 based on the settings in the PDL job generated by the job control unit 163 according to the instruction from the job control unit 163. Generate to Specifically, the RIP control unit 165 notifies the RIP unit 128 of a memory address storing intermediate data and a memory address storing bitmap data.
  • the bitmap data may be generated in units of pages, units of bands, units of channels, or units of blocks.
  • halftone processing may be performed at the time of bitmap data generation.
  • the RIP control unit 165 may directly transmit the bitmap data to the image control unit 171 instead of storing the bitmap data in the RAM 123.
  • the RIP control unit 165 notifies the job control unit 163 of the completion of the RIP process.
  • the image control unit 171 is a module that causes the engine control unit 172 to convert bitmap data into spool data suitable for printing by the print engine 112.
  • the image control unit 171 causes the spool data to be stored in the RAM 123 based on the bitmap data generated by the RIP control unit 165 based on the setting of the PDL job generated by the job control unit 163 according to the instruction from the job control unit 163.
  • the spool data is created by converting the rendered image into a suitable format in order to notify the print engine 112 of the rendered image.
  • the image control unit 171 may perform halftone processing on bitmap data.
  • correction may be performed on the rendering image so that the color is optimal for the print engine 112.
  • the image control unit 171 may make the spool data create and hold after the bit map data is losslessly compressed or irreversibly compressed.
  • the image control unit 171 When the image processing is completed, the image control unit 171 notifies the job control unit 163 of the completion of the image processing.
  • the engine control unit 172 is a module that prints spool data on a sheet by the print engine 112.
  • the engine control unit 172 also acquires and sets the state of the print engine 112 notified from the print engine 112.
  • the engine control unit 172 instructs the print engine 112 to print the spool data generated by the image control unit 171 based on the settings in the PDL job generated by the job control unit 163 according to the instruction from the job control unit 163. Do. When the print engine 112 has a plurality of sheet feed stages, the engine control unit 172 instructs the print engine 112 which sheet feed stage to feed from. When the spool data is losslessly compressed or irreversibly compressed by the image control unit 171, the engine control unit 172 expands the spool data. Then, the print engine 112 performs processing of printing on a sheet based on the expanded spool data.
  • the print engine 112 may be instructed to which sheet discharge stage the sheet is to be discharged.
  • the engine control unit 172 may perform control related to processing. For example, the engine control unit 172 may control to perform processing such as stopping the sheet by stapling or bending the sheet.
  • the engine control unit 172 In response to an instruction from the job control unit 163, the engine control unit 172 notifies the job control unit 163 of various error states, jam states, and consumable states notified from the print engine 112 as statuses.
  • the error state includes a state in which print processing can not be performed because the main body cover of the print engine 112 is open. Furthermore, the error state includes a state in which no sheet exists in the designated sheet feeding stage and the print engine 112 can not perform the printing process.
  • the jammed state includes a state in which the sheet is jammed in the conveyance path when the printing process is performed.
  • the consumable status includes, for example, whether the toner cartridge, the toner bottle, or the sheet feed cassette includes the consumable, and if the consumable is included, how much remains.
  • the consumable item status may be logically calculated by calculation by the print engine 112.
  • the engine control unit 172 performs power control of the print engine 112 in accordance with an instruction from the power control unit 175.
  • the power supply control unit 175 instructs to enter or return to the power saving state (or the sleep state). In the power saving state, power is supplied to only a part of the components constituting the image forming apparatus 102 to reduce power consumption in a standby state in which printing is not performed.
  • the network interface control unit 174 is a module that controls communication with the data processing apparatus 101.
  • the network interface control unit 174 controls the NIC 124 to transmit and receive data from the data processing apparatus 101.
  • the network interface control unit 174 notifies the PDL control unit 164 of the PDL data transmitted from the data processing apparatus 101 via the job control unit 163.
  • the network interface control unit 174 When notified of a status acquisition request or a status change request from the data processing apparatus 101, the network interface control unit 174 sends a status acquisition request or a status change request to the status management unit 162. When notified of the status acquisition result or the status change result from the status management unit 162, the network interface control unit 174 notifies the data processing apparatus 101 of the notified result.
  • the network interface control unit 174 when the network interface control unit 174 receives a display request for displaying a web page for displaying and controlling the state of the image forming apparatus 102 from the data processing apparatus 101, the network interface control unit 174 notifies the UI control unit 176 of the received display request. Do.
  • the power control unit 175 is a module that manages the state of power of the image forming apparatus 102 (hereinafter, “power state”).
  • the power control unit 175 instructs the engine control unit 172 to acquire the power state of the image forming apparatus 102 or change the power state of the image forming apparatus 102 in accordance with the state acquisition request or the state change request received from the status management section 162. I do.
  • the power state of the controller 110 may be managed via the print engine 112.
  • the UI control unit 176 is a module for notifying the user of various information via the UI panel 111 based on the state change notification notified from the status management unit 162.
  • the UI control unit 176 holds the state of the image forming apparatus 102 for managing what kind of screen is displayed on the UI panel 111 as a result of the user's operation performed via the UI panel 111.
  • the UI control unit 176 may provide the data processing apparatus 101 with a web page for displaying and controlling the state of the image forming apparatus 102.
  • the microcomputer command processing unit 181 interprets the request data notified from the microcomputer device 103, and transmits a status acquisition request or a status change request to the status management unit 162.
  • the microcomputer command processing unit 181 receives the state acquisition result or the state change result from the status management unit 162, the microcomputer command processing unit 181 notifies the microcomputer device 103 of the received result as response data. This process will be described later.
  • the external I / F control unit 182 is a module that controls the expansion I / F 132 when the microcomputer command processing unit 181 communicates with the microcomputer device 103.
  • the external I / F control unit 182 has a function of determining whether the microcomputer device 103 is connected to the image forming apparatus 102.
  • FIGS. 3A to 3D are block diagrams for explaining an example of the configuration of the microcomputer device 103 shown in FIG.
  • FIG. 3A is a block diagram showing the hardware configuration of the microcomputer device 210 for performing error recovery message utterance processing
  • FIG. 3B is a block diagram showing the hardware configuration of the microcomputer device 220 for performing consumable item remaining amount display processing.
  • 3C is a block diagram showing the hardware configuration of the microcomputer device 230 for performing the power control auxiliary processing
  • FIG. 3D is a block diagram showing the hardware configuration of the microcomputer device 240 for performing the peripheral environment logging processing. is there.
  • the microcomputer devices 210, 220, 230, and 240 each include a microcomputer chip 201, a USB serial communication chip 202, and a peripheral part group.
  • the microcomputer chip 201 is an IC chip for controlling the microcomputer device 103.
  • the microcomputer chip 201 includes a ROM and a RAM (not shown), and a microcomputer firmware 250 (not shown in FIGS. 3A to 3D) for controlling the microcomputer device 103 is stored in the ROM.
  • the microcomputer chip 201 executes the microcomputer firmware 250 using the RAM.
  • the microcomputer chip 201 has a plurality of external pins, and has a function of communicating with the USB serial communication chip 202 or peripheral parts through each external pin.
  • the microcomputer chip 201 is connected to the USB serial conversion chip 202 via an external pin capable of serial communication.
  • the microcomputer chip 201 is connected to each peripheral part via an external pin capable of communicating with the peripheral part.
  • GPIO General Property Input / Output
  • I2C Inter-Integrated Circuit
  • SPI serial peripheral interface
  • the USB serial conversion chip 202 is a module that performs conversion processing of an electrical or logical communication protocol when communication is performed between the microcomputer device and the image forming apparatus 102. Furthermore, the USB serial conversion chip 202 has a function of converting the power supplied from the image forming apparatus 102 and supplying the converted power to the microcomputer device 103.
  • the peripheral part group is a plurality of peripheral parts attached to the microcomputer device 103.
  • peripheral parts for example, there are a distance sensor 211 and a voice synthesis chip 212 as a peripheral part group. Note that peripheral parts other than the peripheral parts shown in FIGS. 3A to 3D may be attached.
  • the distance sensor 211 and the voice synthesis chip 212 are attached to the microcomputer chip 201 as the peripheral parts group, and the microcomputer device 210 performs error recovery message utterance processing.
  • the voice synthesis chip 212 is connected to the speaker 214 via the amplifier 213.
  • the distance sensor 211 measures the distance from the front of the distance sensor 211 to the obstacle according to the instruction from the microcomputer chip 201. For example, after the distance sensor 211 emits ultrasonic waves, it measures the time to receive the ultrasonic waves reflected by the obstacle to measure the distance to the obstacle.
  • the speech synthesis chip 212 When the speech synthesis chip 212 receives speech data from the microcomputer chip 201 according to an instruction from the microcomputer chip 201, the speech synthesis chip 212 generates PCM data based on the received speech data. Then, the speech synthesis chip 212 outputs the generated PCM data to the external pin.
  • the PCM data may be output as analog data, or may be output by PWM (Pulse Width Modulation). In the illustrated example, the speech synthesis chip 212 inputs PCM data to the amplifier 213 as a PWM signal.
  • the amplifier 213 amplifies the received PWM signal and outputs it to the speaker 214.
  • the speaker 214 outputs a sound corresponding to the PWM signal received from the amplifier 213.
  • the LCD panel 221 and the switch 222 are attached to the microcomputer chip 201 as the peripheral parts group, and the microcomputer device 220 performs the consumables remaining amount display process.
  • the LCD panel 221 displays characters and graphics on the LCD panel 221 (for example, a liquid crystal panel) according to an instruction from the microcomputer chip 201. Note that a panel having only a function of displaying text may be used as the LCD panel 221. Furthermore, an LCD panel having a function of displaying a graphic with a higher degree of freedom of expression may be used.
  • the RAM of the microcomputer chip 201 may have a frame buffer which is a storage area of graphic data, and the LCD panel 221 has a frame buffer. May be Furthermore, the LCD panel 221 may be a monochrome panel that expresses one pixel on and off, and may be a color panel that can specify a color by RGB values.
  • the switch 222 notifies the microcomputer chip 201 of an event for the switch 222. For example, when the switch 222 is shifted from the non-depressed state to the depressed state, the switch 222 notifies the microcomputer chip 201 of "RISING" as an event. On the other hand, when the switch 222 is shifted from the pressed state to the not pressed state, the switch 222 notifies the microcomputer chip 201 of "FALLING" as an event. Furthermore, when the switch 222 remains pressed, the switch 222 notifies the microcomputer chip 201 of "HIGH”. Then, when the switch 222 is not pressed down, the switch 222 notifies the microcomputer chip 201 of “LOW”. Preferably, the switch 222 is provided with means for removing chattering.
  • the illuminance sensor 231 and the human sensor 232 are mounted on the microcomputer chip 201 as the peripheral parts group, and the microcomputer device 230 performs the power control auxiliary processing.
  • the illuminance sensor 231 detects the light around the illuminance sensor 231 according to the instruction from the microcomputer chip 201, and measures the brightness of the light (illuminance detection).
  • the brightness of light detected and measured by the illuminance sensor 231 may be the brightness of visible light or the brightness of infrared light.
  • the illuminance sensor 231 notifies the microcomputer chip 201 of the measurement result.
  • the human sensor 232 detects whether or not the human body approaches the periphery of the human sensor 232 according to an instruction from the microcomputer chip 201 (human detection). For example, the human sensor 232 detects the approach of the human body using infrared light. The human sensor 232 notifies the microcomputer chip 201 of the detected result.
  • the CO / CO 2 sensor 241 and the temperature / humidity sensor 242 are attached to the microcomputer chip 201 as the peripheral parts group, and the microcomputer device 240 performs peripheral environment logging processing.
  • the CO / CO 2 sensor 241 measures the concentration of CO and the concentration of CO 2 around the CO / CO 2 sensor 241 in accordance with an instruction from the microcomputer chip 201.
  • the CO / CO 2 sensor 241 notifies the microcomputer chip 201 of the measurement result.
  • the temperature / humidity sensor 242 measures the temperature and humidity around the temperature / humidity sensor 242 in accordance with an instruction from the microcomputer chip 201.
  • the temperature / humidity sensor 242 notifies the microcomputer chip 201 of the measurement result.
  • FIG. 4 is a block diagram showing an example of the software configuration of the microcomputer devices 210 to 240 shown in FIGS. 3A to 3D.
  • the microcomputer firmware 250 provided in each of the microcomputer devices 210 to 240 includes a microcomputer device control unit 251, a command communication unit 261, a serial communication unit 262 (UART), a peripheral parts control unit 271, and a peripheral parts communication unit 272. There is.
  • the microcomputer device control unit 251 is a module that controls the entire microcomputer device 103.
  • the microcomputer device control unit 251 transmits a state acquisition request or a state change request to the command communication unit 261. Further, the microcomputer device control unit 251 receives the status acquisition result or the status change result from the command communication unit 261.
  • the command communication unit 261 is a module that controls communication in the upper layer between the microcomputer device 103 and the image forming apparatus 102.
  • the command communication unit 261 converts the received request into request data including a header and the like. Further, when the command communication unit 261 receives request data from the image forming apparatus 102, the command communication unit 261 deletes the header and the like, and notifies the microcomputer device control unit 251 of the status acquisition result or the status change result.
  • the serial communication unit 262 is a module that controls communication in the lower layer between the microcomputer device 103 and the image forming apparatus 102.
  • the serial communication unit 262 performs setting of a communication speed, control of the presence / absence of a parity bit, and the like via the USB serial conversion chip 202.
  • this communication may be realized by software using a microcomputer chip 201 having a USB communication function. Furthermore, after communication between the image forming apparatus 102 and the microcomputer device 103 is performed by the unique protocol using the microcomputer chip 201 having the USB communication function, the image forming apparatus 102 interprets the unique protocol. May be
  • the peripheral part control unit 271 controls each peripheral part.
  • the peripheral part control unit 271 performs initialization, state change, and state acquisition necessary for each peripheral part.
  • the peripheral part communication unit 272 controls communication between the peripheral part control unit 271 and the peripheral part 290.
  • the peripheral part communication unit 272 performs setting and control necessary for communication independent of the type of peripheral part, such as communication speed between the microcomputer chip 201 and the peripheral part 290 and notification of start / end of transaction processing.
  • FIG. 5A and FIG. 5B are flowcharts for explaining microcomputer command processing executed by the microcomputer command processing unit 181 shown in FIG.
  • the microcomputer command processing unit 181 confirms with the external I / F control unit 182 whether the microcomputer device 103 is physically connected to the image forming apparatus 102 (step S301). Then, the microcomputer command processing unit 181 determines whether the microcomputer device 103 is physically connected to the image forming apparatus 102 (step S302).
  • step S302 If the microcomputer device 103 is not physically connected to the image forming apparatus 102 (NO in step S302), the microcomputer command processing unit 181 waits for a predetermined time (for example, 5000 milliseconds) (step S303). Then, the microcomputer command processing unit 181 returns the process to step S301.
  • a predetermined time for example, 5000 milliseconds
  • the microcomputer command processing unit 181 instructs the external I / F control unit 182 to perform communication initialization processing.
  • the external I / F control unit 182 performs communication initialization processing, and establishes communication with the microcomputer device 103 (step S304).
  • microcomputer command processing unit 181 waits until the request data transmitted by the microcomputer device 103 via the external I / F control unit 182 is received in step S311.
  • the microcomputer command processing unit 181 determines whether a timeout has occurred before receiving the request data transmitted by the microcomputer device 103 (step S312). When the microcomputer command processing unit 181 can not receive the request data even after a predetermined time (for example, 30 seconds) has elapsed, it determines that a timeout has occurred. If a timeout has occurred (YES in step S312), the microcomputer command processing unit 181 instructs the external I / F control unit 182 to perform communication end processing (step S313). Then, the microcomputer command processing unit 181 returns the process to step S301.
  • a predetermined time for example, 30 seconds
  • step S311 when the request data is received in step S311 (YES in step S311), the microcomputer command processing unit 181 determines the command character string type based on the content of the received request data (step S320).
  • the microcomputer command processing unit 181 sends a status acquisition request or a status change request to the status management unit 162 by performing predetermined processing described later according to the determination result of the command character string type (steps S320 to S332). Then, the microcomputer command processing unit 181 determines response data based on the state acquisition result or the state change result notified from the status management unit 162.
  • FIG. 6 and 7 show an example of request data
  • FIG. 8 shows an example of response data
  • FIG. 9 shows another example of response data.
  • the microcomputer command processing unit 181 when the microcomputer command processing unit 181 receives the request data “? SLEEP”, the microcomputer command processing unit 181 interprets the received request data as a status acquisition request of the power state of the image forming apparatus 102, Perform status acquisition processing. As a result, if the power supply state of the image forming apparatus 102 is power saving, the microcomputer command processing unit 181 determines the response data to be "SLEEP".
  • the microcomputer command processing unit 181 determines the response data as “AWAKE”.
  • FIG. 9 shows response data (here, log type) which can be determined when the received request data is “! LOGaaaabbbbb” and the corresponding meaning.
  • step S320 when the request data is "? SLEEP", the microcomputer command processing unit 181 determines response data based on the power supply state of the image forming apparatus 102 (step S321). In step S 321, the microcomputer command processing unit 181 requests the status management unit 162 to acquire the power state of the image forming apparatus 102.
  • the status management unit 162 acquires the power supply status of the image forming apparatus 102 managed by the power supply control unit 175, and notifies the microcomputer command processing unit 181 of the acquired power supply status of the image forming apparatus 102. .
  • the microcomputer command processing unit 181 determines response data based on the received notification. For example, when notified by the status management unit 162 that the power state is the sleep state, the microcomputer command processing unit 181 determines the response data to be "SLEEP". On the other hand, when notified by the status management unit 162 that the power supply state is not the sleep state, the microcomputer command processing unit 181 determines the response data as “AWAKE”.
  • step S320 when the request data is "! SLEEP” or "! AWAKE", the microcomputer command processing unit 181 responds based on the result (success or failure) with respect to the power state change request of the image forming apparatus 102. Are determined (step S322). In step S 322, the microcomputer command processing unit 181 requests the status management unit 162 to change the power state of the image forming apparatus 102. The status management unit 162 notifies the power control unit 175 of a status change request of the power status.
  • the status management unit 162 notifies the power control unit 175 of a status change request for changing the power status of the image forming apparatus 102 to the sleep status. If the received request data is “! AWAKE”, the status management unit 162 notifies the power control unit 175 of a status change request for recovering the image forming apparatus 102 from the sleep state. When the power control unit 175 receives a status change request for the power status, it attempts to change the power status and notifies the status management unit 162 of the result.
  • the power control unit 175 receives a state change request to change the power state of the image forming apparatus 102 to the sleep state when the power state of the image forming apparatus 102 is the sleep state
  • the power control unit 175 Suppose that the state change result of the state is failure.
  • the power control unit 175 receives a state change request for restoring the image forming apparatus 102 from the sleep state when the image forming apparatus 102 is in a state other than the sleep state (for example, a printable state)
  • the power control unit 175 It is assumed that the status change result of is failure.
  • the power control unit 175 determines that the power state change result is failure.
  • the power control unit 175 notifies the status management unit 162 of the status change result of the power status.
  • the status management unit 162 notifies the microcomputer command processing unit 181 of the received status change result of the power supply status.
  • the microcomputer command processing unit 181 determines response data based on the received power supply status change result. If the received status change result of the power source status is a failure, the microcomputer command processing unit 181 determines that the response data is “NG”.
  • the power state change result becomes successful.
  • the power control unit 175 notifies the status management unit 162 of the status change result of the power status.
  • the status management unit 162 notifies the microcomputer command processing unit 181 of the received status change result of the power supply status. If the notified status change result is a success, the microcomputer command processing unit 181 determines that the response data is “OK”.
  • step S320 when the request data is "? JOB", the microcomputer command processing unit 181 determines the response data based on the job execution status of the image forming apparatus 102 (hereinafter, "job execution status"). (Step S323). In step S323, the microcomputer command processing unit 181 requests the status management unit 162 to acquire the job execution state of the image forming apparatus 102.
  • the status management unit 162 notifies the microcomputer command processing unit 181 of the job execution state based on the job execution state. For example, the status management unit 162 sets the microcomputer command processing unit 181 as a job execution state that the image forming apparatus 102 is executing a job, has a job error occurring, or is in a standby state where nothing has occurred. Notify
  • the microcomputer command processing unit 181 determines that the response data is “RUNNING”. If the received job execution state indicates that a job error is occurring, the microcomputer command processing unit 181 determines that the response data is “ERROR”. If the received job execution state is in standby, the microcomputer command processing unit 181 determines that the response data is “IDLE”.
  • step S320 when the request data is "? SPOOL JOB", the microcomputer command processing unit 181 sets the response data based on the status of spool job execution of the image forming apparatus 102 (hereinafter, "spool job execution status"). It determines (step S324).
  • step S324 the microcomputer command processing unit 181 requests the status management unit 162 to acquire the spool job execution state.
  • the status management unit 162 notifies the microcomputer command processing unit 181 that there is a spool job as a spool job execution state.
  • the status management unit 162 notifies the microcomputer command processing unit 181 that there is no spool job as a spool job execution state.
  • the microcomputer command processing unit 181 determines that the response data is "STORED”. If the received spool job execution state indicates that there is no spool job, the microcomputer command processing unit 181 determines the response data to be "NONE".
  • step S320 when the request data is "? ERROR", the microcomputer command processing unit 181 sets the response data based on the state of an error occurring in the image forming apparatus 102 (hereinafter "error state”). It determines (step S325). In step S325, the microcomputer command processing unit 181 requests the status management unit 162 to acquire an error state.
  • the status management unit 162 notifies the microcomputer command processing unit 181 that “jamming error is in progress” as an error state. If the received error state is "jamming error”, the microcomputer command processing unit 181 determines the response data to be "JAM".
  • the status management unit 162 When one of the covers in the image forming apparatus 102 is open, the status management unit 162 notifies the microcomputer command processing unit 181 of “cover error in progress” as an error state. If the received error state is "cover error in progress", the microcomputer command processing unit 181 determines that the response data is "COVER".
  • the status management unit 162 notifies the microcomputer command processing unit 181 of “during cartridge error” as an error state. If the received error state is "during cartridge error”, the microcomputer command processing unit 181 determines that the response data is "CRG".
  • the status management unit 162 notifies the microcomputer command processing unit 181 of “no error” as an error state. If the received error state is “no error”, the microcomputer command processing unit 181 determines that the response data is “NONE”.
  • step S320 when the request data is "? COVER", the microcomputer command processing unit 181 determines the response data based on the state of the cover of the image forming apparatus 102 (hereinafter, "cover state") (step S326). In step S326, the microcomputer command processing unit 181 requests the status management unit 162 to acquire the cover state of the image forming apparatus 102.
  • the status management unit 162 notifies the microcomputer command processing unit 181 of “front cover error” as the cover state. If the received cover state is “front cover error”, the microcomputer command processing unit 181 determines the response data to be “FRONT”.
  • the status management unit 162 When the rear cover is open in the image forming apparatus 102, the status management unit 162 notifies the microcomputer command processing unit 181 of “rear cover error” as the cover state. If the received cover state is “rear cover error”, the microcomputer command processing unit 181 determines the response data to be “REAR”.
  • the status management unit 162 When the right cover of the image forming apparatus 102 is open, the status management unit 162 notifies the microcomputer command processing unit 181 of “right cover error” as the cover state. If the received cover state is “right cover error”, the microcomputer command processing unit 181 determines the response data to be “RIGHT”.
  • step S320 when the request data is "? CRGY”, “? CRGM”, “? CRGC”, or "? CRGK”, the microcomputer command processing unit 181 determines the state of the toner cartridge of the image forming apparatus 102 (hereinafter referred to as " Response data is determined based on "toner cartridge status" (step S327).
  • the microcomputer command processing unit 181 determines the state of the drum cartridge of the image forming apparatus 102 (hereinafter referred to as "drum”). Response data is determined based on the cartridge state “)” (step S 327).
  • “x” in “? CRGx” is any of “Y (yellow)”, “M (magenta)”, “C (cyan)” and “K (black)”, and the drum is For the cartridge, “1”, “2”, “3” and “4” are given to “Y”, “M”, “C” and “K” respectively.
  • step S 327 the microcomputer command processing unit 181 requests the status management unit 162 to acquire the specified cartridge state (hereinafter, “cartridge state”). If the cartridge specified in the image forming apparatus 102 is not supported, the status management unit 162 notifies the microcomputer command processing unit 181 of “not supported” as the cartridge state. If the received cartridge state is "not supported", the microcomputer command processing unit 181 determines that the response data is "NOTSUPPORT".
  • the cartridge states for the request data "? CRG1", “? CRG2”, “? CRG3” and “? CRG4" for the drum cartridge are always always the same. "Not supported”.
  • the request data “? CRGY”, “? CRGM”, “? CRGC”, The cartridge states for "? CRG1", “? CRG2”, and “? CRG3” are always "not supported", respectively.
  • the status management unit 162 notifies the microcomputer command processing unit 181 of “not mounted” as the cartridge state.
  • the microcomputer command processing unit 181 determines the response data as "NOTATTACHED".
  • the status management unit 162 When the cartridge designated in the image forming apparatus 102 is mounted at an inappropriate position, the status management unit 162 notifies the microcomputer command processing unit 181 that the mounting state is “improper mounting position”. Here, for example, when the magenta toner cartridge is mounted at a position where the yellow toner cartridge is to be mounted in the image forming apparatus 102, the status management unit 162 considers that the cartridge is mounted at an inappropriate position.
  • the microcomputer command processing unit 181 determines that the response data is "MISMATCHED".
  • the status management unit 162 notifies the microcomputer command processing unit 181 of “communication error” as the cartridge state. If the received cartridge state is "communication error”, the microcomputer command processing unit 181 determines the response data to be "COMERR".
  • the status management unit 162 determines the cartridge state. As "acquisition success”. Then, the status management unit 162 adds cartridge life remaining amount information to the cartridge state, and notifies the microcomputer command processing unit 181 of the cartridge state. For example, in the case of a new cartridge, the cartridge life remaining amount information is "100%", and in the case of the cartridge which has reached the life, the cartridge life remaining amount information is "0%”.
  • the microcomputer command processing unit 181 determines response data based on the cartridge life remaining amount information. For example, if the cartridge life remaining amount information is "100%”, the microcomputer command processing unit 181 determines that the response data is "100%”. If the cartridge life remaining amount information is "0%”, the microcomputer command processing unit 181 determines the response data as "0%”.
  • the microcomputer command processing unit 181 controls the paper feed of the image forming apparatus 102.
  • Response data is determined based on the stage status (hereinafter, "sheet feeding stage status"). Further, when the request data is “? FINISHER1” or “? FINISHER2”, the microcomputer command processing unit 181 is responsive to the state of the discharge stage of the image forming apparatus 102 (hereinafter, “discharge stage state”). Are determined (step S328).
  • step S328 the microcomputer command processing unit 181 requests the status management unit 162 to acquire the sheet feed stage state or the sheet discharge stage state.
  • the status management unit 162 sets “unmounted” as the sheet feed stage state or the sheet discharge stage state to the microcomputer command processing unit 181.
  • the microcomputer command processing unit 181 determines the response data as "NOTATTACHED".
  • the status management unit 162 When a jam occurs at the sheet feed stage or sheet ejection stage specified in the image forming apparatus 102, the status management unit 162 performs microcomputer command processing of “jam error” as the sheet stage state or sheet ejection stage state. Notify part 181. If the paper feed stage state or the paper discharge stage state is “jamming error”, the microcomputer command processing unit 181 determines the response data to “JAM ERROR”.
  • the status management unit 162 uses the microcomputer command of “overloading” as the sheet feeding stage state or the sheet discharging stage state.
  • the processing unit 181 is notified.
  • the microcomputer command processing unit 181 determines the response data as "OVERLOAD”.
  • the status management unit 162 When the sheet feeding tray or the sheet discharging tray is attached in the image forming apparatus 102 and the jam or the overstacking does not occur in the sheet feeding tray or the sheet discharging tray, the status management unit 162 The state or the discharge tray state is set as "acquisition success”. Then, the status management unit 162 gives the remaining amount information (remaining capacity information) of the sheet discharge stage or sheet feed stage to the sheet feed stage state or the sheet discharge stage state, and notifies the microcomputer command processing unit 181.
  • the remaining amount information of the sheet feeding tray is "100%”. Further, when the sheet feeding tray is completely empty, the remaining amount information of the sheet feeding tray is "0%”. Further, when the sheet discharge stage is full, the remaining capacity information of the sheet discharge stage is "0%”, and when the sheet discharge stage is completely empty, the capacity remaining information of the sheet discharge stage is It will be "100%".
  • the microcomputer command processing unit 181 determines the response data based on the remaining amount information of the sheet feed stage or the sheet discharge stage. For example, when the remaining amount information of the sheet feed stage or the sheet discharge stage is "100%”, the microcomputer command processing unit 181 determines that the response data is "100%”. Further, when the remaining amount information of the sheet feed stage or the sheet discharge stage is "0%”, the microcomputer command processing unit 181 determines the response data as "0%”.
  • step S320 when the request data is "? SCREENID", the microcomputer command processing unit 181 determines the ID of the screen displayed on the display unit of the UI panel 111 of the image forming apparatus 102 (hereinafter, "display screen ID The response data is determined based on “)” (step S 329).
  • the microcomputer command processing unit 181 requests the status management unit 162 to acquire the display screen ID.
  • the status management unit 162 notifies the microcomputer command processing unit 181 of the display screen ID of the screen displayed on the image forming apparatus 102. For example, when the screen “close manual feed” is displayed on the display unit, the status management unit 162 sets the display screen ID to “CLOSEMPTRAY”.
  • the microcomputer command processing unit 181 determines response data in accordance with the screen ID.
  • step S320 the microcomputer command processing unit 181 determines response data based on the execution result of the non-volatile memory read process of the image forming apparatus 102 (step S330).
  • the microcomputer command processing unit 181 requests the status management unit 162 to execute non-volatile memory read processing.
  • xxxxx is a logical address of the non-volatile memory (hereinafter, “logical address”).
  • logical address For example, in the case of 32 kilobits non-volatile memory, any one of "00000" to "32767” can be designated as "xxxxx”.
  • the request data is "? MEM01000".
  • the status management unit 162 sets the execution result of the non-volatile memory read process as “read failure”. If the execution result of the non-volatile memory read process is “read failure”, the microcomputer command processing unit 181 determines that the response data is “NG”.
  • the status management unit 162 notifies the microcomputer command processing unit 181 of the read result obtained by executing the non-volatile memory read process.
  • the microcomputer command processing unit 181 determines the response data as the obtained read result.
  • the response data determined as the read result is represented in hexadecimal. For example, when the obtained read result is "20" in decimal, the response data is "14".
  • step S320 when the request data is "! MEMxxxxxyy", the microcomputer command processing unit 181 determines response data based on the execution result of the non-volatile memory writing process of the image forming apparatus 102 (step S331).
  • the microcomputer command processing unit 181 requests the status management unit 162 to execute the non-volatile memory writing process.
  • xxxxx is a logical address of the non-volatile memory (hereinafter, “logical address”).
  • logical address For example, in the case of 32 kilobits non-volatile memory, any one of "00000" to 32767 can be designated for "xxxxx”.
  • yy is the hexadecimal representation of the write data to be written to the non-volatile memory. For example, when “0xAB” is recorded in the logical address “0x1000”, the request data is “! MEM01000AB”.
  • the status management unit 162 determines “write failure” as the execution result of the non-volatile memory write process.
  • the microcomputer command processing unit 181 is notified. If the execution result of the non-volatile memory writing process is "writing failure", the microcomputer command processing unit 181 determines that the response data is "NG".
  • status management unit 162 executes the non-volatile memory write process and the microcomputer successfully writes “write success” as the execution result of the non-volatile memory write process.
  • the command processing unit 181 is notified. If the execution result of the non-volatile memory writing process is “writing success”, the microcomputer command processing unit 181 determines the response data to be “OK”.
  • step S320 when the request data is "! LOGaaaabbbbb", the microcomputer command processing unit 181 determines response data based on the execution result of the log recording process of the image forming apparatus 102 (step S332).
  • the microcomputer command processing unit 181 requests the status management unit 162 to execute the log recording process.
  • "aaaaa” represents a log type.
  • "bbbbb” represents log data. For example, when recording that "the carbon dioxide concentration is 400 ppm", the request data is "! LOGCO2__00400".
  • the status management unit 162 notifies the microcomputer command processing unit 181 of “write failure” as the execution result of the log recording process. If the execution result of the log recording process is "write failure", the microcomputer command processing unit 181 determines that the response data is "NG”.
  • the status management unit 162 associates the log type with the current time and records the log data. Then, the status management unit 162 notifies the microcomputer command processing unit 181 of “recording success” as the execution result of the log recording process. If the execution result of the log recording process is "recording success", the microcomputer command processing unit 181 determines that the response data is "OK”.
  • the microcomputer command processing unit 181 transmits the determined response data to the microcomputer device 103 (step S399). At this time, it is desirable to add a character as a terminator to the response data. Then, the microcomputer command processing unit 181 returns the process to step S311.
  • the image forming apparatus 102 performs status acquisition and status change of each module configuring the image forming apparatus 102 based on the request data received from the microcomputer device 103, and uses the result as response data to the microcomputer device 103. Send to
  • FIG. 10 is a flowchart for illustrating command communication processing executed by the command communication unit 261 shown in FIG.
  • the command communication process is a process from the transmission of request data to the command communication unit 261 by the microcomputer device control unit 251 to the reception of response data.
  • the microcomputer device control unit 251 performs a process such as acquiring a state from the image forming apparatus 102.
  • the microcomputer device control unit 251 transmits request data to the command communication unit 261.
  • the command communication unit 261 acquires the number of writable characters from the serial communication unit 262 (step S401). Then, the command communication unit 261 determines whether the acquired writable number of characters is equal to or more than the number of characters of the request data (step S402).
  • step S403 If the number of writable characters is less than the number of characters of request data (NO in step S402), the command communication unit 261 waits for a predetermined time (for example, 10 milliseconds) (step S403). Then, the command communication unit 261 returns the process to step S401.
  • a predetermined time for example, 10 milliseconds
  • the command communication unit 261 transmits the received request data and the transmission request of the request data to the serial communication unit 262.
  • the serial communication unit 262 transmits the request data to the USB serial conversion chip 202 (step S404).
  • the USB serial conversion chip 202 transmits the request data to the microcomputer command control unit 181 via the expansion I / F 132 and the external I / F control unit 182 of the image forming apparatus 102.
  • the microcomputer command control unit 181 executes the microcomputer command processing described in FIGS. 5A and 5B to acquire response data. Then, the microcomputer command control unit 181 transmits the acquired response data to the serial communication unit 262 via the external I / F control unit 182 and the expansion I / F 132.
  • the command communication unit 261 initializes the response data to be generated with empty (step S411). Then, the command communication unit 261 reads one character from the response data transmitted from the serial communication unit 262 (step S412).
  • the command communication unit 261 determines whether the read character is a terminator character (step S413). Note that, for example, a carriage return code or a line feed code may be treated as a terminator character.
  • step S413 When the read character is not a terminator character (NO in step S413), the command communication unit 261 adds the read character to the response data being created (step S414). Then, the command communication unit 261 returns the process to step S412 and reads the next one character.
  • the command communication unit 261 adds the termination character to the response data being generated, and notifies the microcomputer device control unit 251 of the generated response data. (Step S421). Then, the command communication unit 261 ends the command communication process.
  • the microcomputer device 103 may be configured to be restarted when transmission and reception of data is not performed at a predetermined time.
  • microcomputer device control unit 251 acquires a state from the peripheral part 290 via the peripheral part control unit 271 and the peripheral part communication unit 272, and sets the state. This setting differs depending on the connection means with the peripheral part, and the present invention can be practiced using other means.
  • 11A and 11B are flowcharts for explaining the error recovery message uttering process executed by the microcomputer device control unit 251 shown in FIG.
  • the microcomputer device control unit 251 transmits an initialization command to the distance sensor 211 to initialize the distance sensor 211 (step S501).
  • the microcomputer device control unit 251 transmits an initialization command to the speech synthesis chip 212 to initialize the speech synthesis chip 212 (step S502).
  • the microcomputer device control unit 251 acquires the measurement result as the distance sensor value from the distance sensor 211 (step S511).
  • the distance sensor value a value expressed in centimeters or the like is used, and indicates, for example, how much space there is an obstacle in front of the distance sensor 211.
  • the microcomputer device control unit 251 determines whether the distance sensor value is less than a predetermined threshold (step S512). For example, when the threshold is 40 cm, the microcomputer device control unit 215 determines that the user approaches when the user (obstacle) is present within 40 cm from the distance sensor 211.
  • the microcomputer device control unit 251 waits for a predetermined time (for example, 1000 milliseconds) (step S599). Then, the microcomputer device control unit 251 returns the process to step S511. If it is determined that the user is not approaching, the microcomputer device control unit 215 determines the approach of the user again after waiting for a predetermined time.
  • a predetermined time for example, 1000 milliseconds
  • the microcomputer device control unit 251 acquires an error state of the image forming apparatus 102 (step S513).
  • the microcomputer device control unit 251 uses the acquired response data as an error state.
  • the microcomputer device control unit 251 determines an error state with reference to the received response data (step S514). If the error state is "NONE" in step S514, the microcomputer device control unit 251 advances the process to step S599. That is, since the process does not need to be performed when no error occurs, the microcomputer device control unit 251 waits until the user approaches.
  • the microcomputer device control unit 251 acquires the display screen ID from the image forming apparatus 102 (step S515).
  • the microcomputer device control unit 251 refers to the received response data to acquire the display screen ID, and records the acquired display screen ID as the previous display screen ID (step S516). Furthermore, the microcomputer device control unit 251 records the error state acquired in step S513 as the previous error state (step S517).
  • the microcomputer device control unit 251 generates an utterance command to be notified to the speech synthesis chip 212 based on the acquired display screen ID (step S521).
  • FIG. 12 is a diagram showing an example of a speech command.
  • the microcomputer device control unit 251 notifies the voice synthesis chip 212 of "tesashi wo simemasu" as a speech command.
  • the microcomputer device control unit 251 notifies the speech synthesis chip 212 of the generated speech command (step S522).
  • the speech synthesis chip 212 starts speech synthesis and speech output based on the speech command. For example, when "tesashi wo simemasu" is notified as a speech command, the speech synthesis chip 212 synthesizes and reproduces a speech corresponding to "close manual paper feeding tray".
  • the microcomputer device control unit 251 acquires a distance sensor value from the distance sensor 211 (step S523).
  • the process of step S523 is the same process as the process of step S511.
  • the microcomputer device control unit 251 determines whether the distance sensor value is less than a predetermined threshold (step S524). If the distance sensor value is equal to or greater than the threshold (NO in step S524), the microcomputer device control unit 251 transmits an utterance stop command to the voice synthesis chip 212 (step S551). Then, the microcomputer device control unit 251 causes the process to proceed to step S599. Thus, when the user leaves the image forming apparatus 102, the speech processing is stopped.
  • the microcomputer device control unit 251 acquires the speech status from the speech synthesis chip 212 (step S525).
  • the microcomputer device control unit 251 determines whether or not the utterance status is uttering (step S526).
  • step S526 If the utterance status is not uttering (YES in step S526), that is, if the utterance is completed, the microcomputer device control unit 251 advances the process to step S599. Thus, when the speech synthesis process and the speech output process according to the speech command transmitted earlier are completed, the same process is repeated by waiting for a predetermined time.
  • step S526 the microcomputer device control unit 251 acquires the display screen ID from the image forming apparatus 102 (step S531).
  • step S531 is similar to the process of step S515.
  • step S532 the microcomputer device control unit 251 acquires an error state of the image forming apparatus 102 (step S532).
  • step S532 is similar to the process of step S513.
  • the microcomputer device control unit 251 acquires the latest display screen ID and the latest error state.
  • the microcomputer device control unit 251 compares the recorded previous display screen ID or the previous error state with the acquired latest display screen ID or the latest error state to display the display screen ID of the image forming apparatus 102 or It is determined whether the error state has changed (step S533).
  • step S533 If the display screen ID or the error state has not changed (NO in step S533), the microcomputer device control unit 251 waits for a predetermined time (for example, 50 milliseconds) (step S534). Then, the microcomputer device control unit 251 returns the process to step S523. As a result, the microcomputer device control unit 251, for example, stands by until the utterance is completed while the user does not approach and the display screen ID or the error state does not change.
  • a predetermined time for example, 50 milliseconds
  • the microcomputer device control unit 251 records the display screen ID acquired in place of the previous display screen ID, and displays the display screen ID. Is updated (step S535). Further, the microcomputer device control unit 251 records the latest error state acquired instead of the previous error state, and updates the error state (step S536).
  • the microcomputer device control unit 251 transmits an utterance stop command to the speech synthesis chip 212 (step S541). Then, the microcomputer device control unit 251 determines an error state (step S542).
  • step S542 If the error state is "NONE" in step S542, the microcomputer device control unit 251 advances the process to step S599. That is, the microcomputer device control unit 251 stands by until the user approaches again.
  • step S542 If the error state is "JAM”, “COVER”, or “CRG” in step S542, the microcomputer device control unit 251 returns the process to step S521. That is, the microcomputer device control unit 251 generates a new speech command and transmits it to the speech synthesis chip 212 according to the latest display screen ID or the latest error state.
  • FIG. 13 is a diagram showing an example of an operation in the error recovery message utterance process described with reference to FIGS. 11A and 11B.
  • the image forming apparatus 102 is equipped with a microcomputer device 210 for performing error recovery message utterance processing.
  • the microcomputer device 210 determines, using the distance sensor 211, whether a person (user) has approached the front area 601 of the image forming apparatus 102 or not.
  • the microcomputer device 210 transmits an utterance command to the voice synthesis chip 212 according to the display content displayed on the operation panel 111 of the image forming apparatus 102.
  • the voice synthesis chip 212 outputs a voice corresponding to the received speech command to notify the user of the display content displayed on the operation panel 111.
  • the present invention is not limited to this.
  • the approach of a person is detected using the distance sensor 211 using ultrasonic waves, but for example, the approach of a person may be detected using a human sensor using infrared rays .
  • the voice synthesis chip 212 is used as a means for notifying the user of the information, but a flash memory and a voice codec chip may be combined to reproduce the recorded voice. Furthermore, the non-volatile memory of the image forming apparatus 102 may be accessed to download the recorded voice from the image forming apparatus 102 as necessary.
  • the microcomputer device 210 when changing the configuration of the peripheral part, the microcomputer device 210 needs to correspond to the control command to correspond to each peripheral part.
  • the image forming apparatus 102 does not have to respond to the new control command. That is, an independent relationship can be realized between the image forming apparatus 102 and the microcomputer device 210, particularly with regard to peripheral part control.
  • the image forming apparatus 102 does not have to consider the compatibility of control commands between peripheral parts.
  • the image forming apparatus 102 by optionally mounting peripheral parts in the image forming apparatus 102, it is possible to acquire the situation around the image forming apparatus 102 and to notify the user of the state of the image forming apparatus 102 by voice. Indicated. As a result, the image forming apparatus 102 can be controlled in consideration of the surrounding conditions that could not be acquired only by the image forming apparatus 102. Further, information can be notified to the user by using a new means called voice that is not included in the image forming apparatus 102.
  • FIG. 14A and FIG. 14B are flowcharts for explaining the consumables remaining amount display process executed by the microcomputer device control unit 251 shown in FIG. 4.
  • the microcomputer device control unit 251 performs, for example, contrast adjustment and backlight designation of the LCD panel 221, and initializes the LCD panel 221 (step S701).
  • the microcomputer device control unit 251 initializes the switch 222 (step S702). Then, the microcomputer device control unit 251 sets all the previous cartridge states as "not acquired” to initialize the cartridge states (step S703).
  • the previous cartridge state is a recent result of the cartridge state acquired from the image forming apparatus 102. If the image forming apparatus 102 can mount a plurality of cartridges, the microcomputer device control unit 251 records the previous cartridge state for each cartridge. Immediately after activation of the image forming apparatus 102, the cartridge state is initialized, and the previous cartridge state is "not yet acquired.”
  • the microcomputer device control unit 251 sets all the previous paper feed tray states to "unacquired” and initializes the paper feed tray states (step S704).
  • the previous sheet feeding state is the latest result of the sheet feeding state acquired from the image forming apparatus 102. If the image forming apparatus 102 can use a plurality of sheet feeding trays, the microcomputer device control unit 251 records the previous sheet feeding tray state for each sheet feeding tray. Immediately after the image forming apparatus 102 is activated, the sheet feeding tray state is initialized, and the previous sheet feeding tray state is “not yet acquired”.
  • the microcomputer device control unit 251 initializes the screen mode in accordance with the cartridge information (step S705).
  • the screen mode is an attribute value indicating which consumable item the microcomputer device control unit 251 displays on the LCD panel 221. If the screen mode is a mode indicating cartridge information (screen mode is "cartridge information"), the microcomputer device control unit 251 displays the cartridge information on the LCD panel 221. If the screen mode is a mode indicating sheet feed stage information (screen mode is “sheet feed stage information”), the microcomputer device control unit 251 displays the sheet feed stage information on the LCD panel 221.
  • step S711 determines the screen mode (step S711).
  • step S711 if the screen mode is "cartridge information”, the microcomputer device control unit 251 acquires the latest cartridge state from the image forming apparatus 102 (step S712).
  • the microcomputer device control unit 251 compares the previous cartridge state with the latest cartridge state acquired in step S712 (step S713). Then, the microcomputer device control unit 251 determines whether the cartridge state has changed according to the comparison result (step S714).
  • the microcomputer device control unit 251 If the cartridge state has changed (YES in step S714), the microcomputer device control unit 251 generates a display screen according to the latest cartridge state, and transmits the generated display screen to the LCD panel 221. The microcomputer device control unit 251 displays the generated display screen on the LCD panel 221 to indicate the cartridge state (step S715).
  • the microcomputer device control unit 251 records the latest cartridge state instead of the previous cartridge state, and updates the cartridge state (step S716). Then, the microcomputer device control unit 251 causes the process to proceed to step S731.
  • step S714 If the cartridge state has not changed in step S714 (NO in step S714), the microcomputer device control unit 251 advances the process to step S731 without changing the display content of the LCD panel 221.
  • step S711 when the screen mode is "paper feed stage information", the microcomputer device control unit 251 acquires the latest paper feed stage state from the image forming apparatus 102 (step S722). Then, the microcomputer device control unit 251 compares the previous paper feed stage state with the latest paper feed stage state acquired in step S722 (step S723). The microcomputer device control unit 251 determines whether or not the paper feed stage state has changed according to the comparison result (step S 724).
  • step S 724 the microcomputer device control unit 251 generates a display screen according to the sheet feeding state, and transmits the generated display screen to the LCD panel 221.
  • the microcomputer device control unit 251 displays the generated display screen on the LCD panel 221 to indicate the sheet feeding state (step S725).
  • the microcomputer device control unit 251 records the latest sheet feeding tray state instead of the previous sheet feeding tray state, and updates the sheet feeding tray state (step S 725). Then, the microcomputer device control unit 251 causes the process to proceed to step S731.
  • step S724 If the sheet feeding stage state has not changed in step S724 (NO in step S724), the microcomputer device control unit 251 advances the process to step S731 without changing the display content of the LCD panel 221.
  • the microcomputer device control unit 251 displays the latest cartridge state or the latest paper feed stage state on the LCD panel 221.
  • the microcomputer device control unit 251 initializes the elapsed time to “0” (step S 731).
  • the elapsed time refers to the time elapsed since the start of acquiring the state of the switch 222.
  • the microcomputer device control unit 251 acquires an event from the switch 222 (step S732). Then, the microcomputer device control unit 251 determines an event (step S733).
  • step S734 determines the screen mode. If it is determined in step S734 that the screen mode is the mode for displaying the sheet feeding stage information (the screen mode is "sheet feeding stage information"), the microcomputer device control unit 251 is the mode for displaying the cartridge information in the screen mode. To “cartridge information” (step S735). Then, the microcomputer device control unit 251 initializes the cartridge state by setting the previous cartridge state to "not yet obtained” (step S736). Thereafter, the microcomputer device control unit 251 returns the process to step S711.
  • step S734 If it is determined in step S734 that the screen mode is the mode for displaying cartridge information (the screen mode is "cartridge information"), the microcomputer device control unit 251 is a mode for displaying the sheet mode and the paper feed stage information. It is changed to "paper feed stage information" (step S737). Then, the microcomputer device control unit 251 sets the previous paper feed stage state to "not yet obtained” and initializes the paper feed stage state (step S738). Thereafter, the microcomputer device control unit 251 returns the process to step S711.
  • the microcomputer device control unit 251 switches the display content to be displayed on the LCD panel 221 based on the event acquired from the switch 222.
  • step S733 If the event is "FALLING”, "HIGH”, or "LOW” in step S733, the microcomputer device control unit 251 waits for a predetermined time (for example, 10 milliseconds) (step S741). Thereafter, the microcomputer device control unit 251 adds the waiting time to the elapsed time (step S742).
  • a predetermined time for example, 10 milliseconds
  • the microcomputer device control unit 251 determines whether the elapsed time has exceeded a predetermined threshold (for example, 1000 milliseconds) (step S743).
  • a predetermined threshold for example, 1000 milliseconds
  • step S743 If the elapsed time exceeds the threshold (YES in step S743), the microcomputer device control unit 251 returns the process to step S711. On the other hand, if the elapsed time is equal to or less than the threshold (NO in step S743), the microcomputer device control unit 251 returns the process to step S732.
  • FIG. 15A and FIG. 15B are diagrams showing an example of the operation in the consumables remaining amount display process described in FIG. 14A and FIG. 14B.
  • FIG. 15A is a diagram showing an example of the display operation of the microcomputer device when displaying the cartridge information
  • FIG. 15B is a diagram showing an example of the display operation of the microcomputer device when displaying the sheet feed stage information.
  • FIG. 15A on the LCD panel 221, cartridge information of each color is displayed.
  • the remaining amount of life of the cartridge the remaining amount of toner is displayed as a bar and expressed as a percentage.
  • the LCD panel 221 displays the sheet remaining amount of each sheet feed tray.
  • the sheet remaining amount of each sheet feeding stage is displayed by a bar and expressed in percentage.
  • the microcomputer device 220 displays the paper feed stage information on the LCD panel 221. Further, when the switch 222 is pressed while the sheet feed stage information is displayed on the LCD panel 221, the microcomputer device 220 displays the cartridge information on the LCD panel 221.
  • the screen mode is "cartridge information"
  • the screen mode is divided into “toner cartridge information” and "drum cartridge information”. Separately, consumables remaining amount display processing may be performed. By this, it is possible to display toner cartridge information and drum cartridge information on separate screens, and to display toggle information of each consumable item.
  • the sheet feeding stage information includes information on the first to fourth sheet feeding stages and information on the fifth and subsequent sheet feeding stages. It can be displayed on a separate screen to toggle display of information related to each consumable.
  • a liquid crystal panel capable of displaying five lines is used as the LCD panel 221, but a liquid crystal panel capable of displaying six or more lines may be used as the LCD panel 221.
  • the switch 222 which is a physical input means is used to switch the screen, a logical switch for performing touch operation on the touch panel may be used.
  • peripheral parts are optionally mounted on the image forming apparatus 102, thereby providing new display means or input means different from the display means or input means originally provided in the image forming apparatus 102. Showed that it is possible. In this way, it is possible to provide the user with information that could not be represented by the display means originally provided by the image forming apparatus 102. Moreover, user operation can be simplified by providing a new input means.
  • FIG. 16A and FIG. 16B are flowcharts for explaining the power control auxiliary processing executed by the microcomputer device control unit 251 shown in FIG.
  • the microcomputer device control unit 251 sends, for example, control parameters such as sensor sensitivity to the human sensor 232, thereby initializing the human sensor 232 (step S901).
  • the microcomputer device control unit 251 sends, for example, control parameters such as sensor sensitivity to the illuminance sensor 231 to initialize the illuminance sensor 231 (step S902).
  • the microcomputer device control unit 251 acquires a human detection result from the human sensor 232 (step S911). For example, when a person (user) exists around the image forming apparatus 102, the person detection result is “HIGH”. On the other hand, when there is no person around the image forming apparatus 102, the person detection result is "LOW".
  • the microcomputer device control unit 251 acquires the power state from the image forming apparatus 102 (step S 912). Further, the microcomputer device control unit 251 acquires the job execution state from the image forming apparatus 102 (step S 913).
  • the microcomputer device control unit 251 acquires the spool job status from the image forming apparatus 102 (step S 914). Further, the microcomputer device control unit 251 acquires an illuminance value as the illuminance detection result from the illuminance sensor 231 (step S915).
  • the microcomputer device control unit 251 calculates a moving average illuminance value based on the acquired illuminance value (step S916).
  • the microcomputer device control unit 251 obtains a moving average illuminance value by simply averaging a plurality of illuminance values acquired in the past.
  • predetermined weighting may be performed on a plurality of illuminance values acquired in the past, and the average value (weighted average value) may be used as the moving average illuminance value.
  • the microcomputer device control unit 251 determines whether the obtained moving average illuminance value exceeds a predetermined threshold (step S921).
  • the above threshold is, for example, a threshold for determining whether or not the illumination is in a lighting state in an environment where the image forming apparatus 102 is installed.
  • Step S931 When the moving average illuminance value is equal to or less than the threshold (NO in step S921), that is, when the image forming apparatus 102 determines that the ambient light is dark, the microcomputer device control unit 251 determines a human detection result. (Step S931).
  • step S931 when the human detection result is "HIGH", that is, when there is a person around the image forming apparatus 102, the microcomputer device control unit 251 determines the power state of the image forming apparatus 102 (step S932).
  • step S932 when the power state is "AWAKE", the microcomputer device control 251 determines that it is not necessary to instruct the image forming apparatus 102 to return from the sleep state, and the predetermined time (for example, 1000) is determined. Wait for milliseconds (step S999). Then, the microcomputer device control 251 returns the process to step S911.
  • the predetermined time for example, 1000
  • step S932 when the power supply state is "SLEEP", the microcomputer device control unit 251 determines the spool job state (step S933).
  • step S933 when the spool job state is "STORED”, the microcomputer device control unit 251 restores the power state of the image forming apparatus 102 from the sleep state (step S934). That is, when the image forming apparatus 102 is in the sleep state and there is a spool job, if there is a person around the image forming apparatus 102, the microcomputer device control unit 251 may cause the user to print the spool job from now on. judge. Then, the microcomputer device control unit 251 restores the image forming apparatus 102 from the sleep state. Thereafter, the microcomputer device control unit 251 causes the process to proceed to step S999.
  • step S933 when the spool job status of the image forming apparatus 102 is "NONE", the microcomputer device control 251 determines that the user is not likely to print the spool job from now, and advances the process to step S999.
  • step S931 when the human detection result is "LOW", that is, when there is no person around the image forming apparatus 102, the microcomputer device control unit 251 determines the power supply state of the image forming apparatus 102 (step S941). .
  • step S941 the microcomputer device control unit 251 determines the job execution state (step S942).
  • step S942 when the job execution state is "IDLE", the microcomputer device control unit 251 shifts the power state of the image forming apparatus 102 to the sleep state (step S943). That is, the microcomputer device control unit 251 determines that the possibility of image formation and the like is low, shifts the power state to the sleep state, and reduces the power consumption of the image forming apparatus 102. Thereafter, the microcomputer device control unit 251 causes the process to proceed to step S999.
  • step S942 when the job execution state is "RUNNING" or "ERROR", the microcomputer device control unit 251 determines that the image forming apparatus 102 is operating or operating. Therefore, the microcomputer device control unit 251 causes the process to proceed to step S 999 in order not to disturb the process in progress in the image forming apparatus 102.
  • step S941 when the power supply state is "SLEEP", the microcomputer device control unit 251 determines that it is not necessary to instruct the image forming apparatus 102 to shift to the sleep state, and advances the process to step S999. .
  • step S921 when the moving average illuminance value exceeds the threshold (YES in step S921), that is, when the image forming apparatus 102 determines that the ambient light is bright, the microcomputer device control unit 251 determines that the person is a person. The detection result is determined (step S951).
  • step S 951 when the human detection result is “HIGH”, that is, when there is a person around the image forming apparatus 102, the microcomputer device control unit 251 determines the power supply state of the image forming apparatus 102 (step S 952). .
  • step S 952 the microcomputer device control unit 251 determines that it is not necessary to instruct the image forming apparatus 102 to return from the sleep state, and advances the process to step S 999. .
  • step S 952 If the power state is “SLEEP” in step S 952, the microcomputer device control unit 251 restores the image forming apparatus 102 from the sleep state (step S 953). Then, the microcomputer device control unit 251 causes the process to proceed to step S999.
  • step S 951 when the human detection result is “LOW”, that is, when there is no person around the image forming apparatus 102, the microcomputer device control unit 251 determines the power supply state of the image forming apparatus 102 (step S 961). .
  • step S 961 when the power supply state is “AWAKE”, the microcomputer device control unit 251 determines the job execution state (step S 962).
  • step S 962 If the job execution state is “IDLE” in step S 962, the microcomputer device control unit 251 shifts the power state of the image forming apparatus 102 to the sleep state (step S 963). Then, the microcomputer device control unit 251 causes the process to proceed to step S999.
  • step S 962 when the job execution state is “RUNNING” or “ERROR”, the microcomputer device control 251 determines that the image forming apparatus 102 is operating or operating. Then, the microcomputer device control unit 251 causes the process to proceed to step S 999 so as not to disturb the process in progress in the image forming apparatus 102.
  • step S 961 when the power state is “SLEEP”, the microcomputer device control 251 determines that it is not necessary to instruct the image forming apparatus 102 to shift to sleep, and advances the process to step S 999.
  • the image forming apparatus 102 when a person approaches the image forming apparatus 102 in a dark environment light, the image forming apparatus 102 returns from the sleep state when there is a spool job state. . When a person is not approaching the image forming apparatus 102 in a dark state, the image forming apparatus 102 shifts to the sleep state when the job execution state is “IDLE”.
  • the image forming apparatus 102 When a person approaches the image forming apparatus 102 in a state where the ambient light is bright, the image forming apparatus 102 returns from the sleep state. When a person is not approaching the image forming apparatus 102 in a bright environment light state, the image forming apparatus 102 shifts to the sleep state when the job execution state is “IDLE”.
  • FIG. 17 shows the processing result in the power control auxiliary processing described with reference to FIGS. 16A and 16B.
  • the process according to the third embodiment is performed based on the illuminance value, the human detection result, the power state, the presence or absence of a spool job, and the job execution state.
  • the microcomputer device control unit 251 can control the power state of the image forming apparatus 102 based on the illuminance value and the human detection result. Further, the microcomputer device control unit 251 obtains the status of the image forming apparatus 102 itself such as the presence or absence of a spool job and the job execution status, and determines the necessity of control of the power status of the image forming apparatus 102.
  • the determination is made by combining information notified from the image forming apparatus 102 and various information notified from the peripheral part, and As a result, an example of controlling the image forming apparatus 102 has been shown. As a result, the image forming apparatus 102 can be controlled in consideration of the peripheral conditions of the image forming apparatus 102 that could not be acquired by the image forming apparatus 102 alone.
  • FIG. 18 is a flowchart for explaining the peripheral environment logging process executed by the microcomputer device control unit 251 shown in FIG.
  • the microcomputer device control unit 251 initializes the CO / CO 2 sensor 241 (step S1001). Further, the microcomputer device control unit 251 initializes the temperature / humidity sensor 242 (step S1002).
  • the microcomputer device control unit 251 acquires various environment values. That is, the microcomputer device control unit 251 acquires the present CO concentration and CO 2 concentration from the CO / CO 2 sensor 241 (step S1011). Further, the microcomputer device control unit 251 acquires the current temperature and humidity from the temperature / humidity sensor 242 (step S1012).
  • the microcomputer device control unit 251 sends the acquired environment values (CO concentration, CO 2 concentration, temperature, and humidity) to the image forming apparatus 102, and log data for storing the acquired environment values as log data.
  • a storage request is sent to the image forming apparatus 102 (step S1013).
  • the microcomputer device control unit 251 waits for a predetermined time (for example, 60 seconds) (step S1099). Then, the microcomputer device control unit 251 returns the process to step S1011.
  • the image forming apparatus 102 individually save the state relating to the image forming apparatus 102 as log data. For example, by recording information such as the time when the image forming apparatus 102 shifts to the sleep state and the time when the image forming apparatus 102 recovers from the sleep state, the influence of the power state of the image forming apparatus 102 on the environment is detected. There is a possibility to do it.
  • environmental values CO concentration, CO 2
  • Concentration, temperature, humidity etc. can be obtained.
  • environment values may be printed on a sheet by an application operating on the image forming apparatus 102.
  • the environment value may be transmitted to the data processing apparatus 101 via the NIC 124 of the image forming apparatus 102.
  • various processing such as displaying on a web page can be performed.
  • the microcomputer device 103 can indirectly use the report printing function and the network function not provided in the microcomputer device 103 via the image forming apparatus 102, which is also useful for the microcomputer device 103. For example, it is not necessary to specify the time at which the microcomputer device 103 saves log data with the Real Time Clock.
  • the microcomputer device 103 can use a function to connect to the network wirelessly or by wire or a function capable of generating PDL data that can be processed by the image forming apparatus 102 without adding a new peripheral part.
  • the microcomputer device 103 By mounting the microcomputer device 103 to the image forming apparatus 102 at a work site, for example, a printer, it can be used as a device for collecting working environment values which are required to be measured by various working environment bills.
  • the peripheral part is optionally mounted on the image forming apparatus 102, so that the environment information acquired from the peripheral part is used inside and outside the image forming apparatus 102.
  • the information acquired from the peripheral part can be collected and analyzed by an external service or the like instead of using the image forming apparatus 102 itself.
  • unified control means such as GPIO, I2C, SPI and the like are often used as means for physically connecting peripheral parts and communication protocols.
  • control commands related to initialization and control of peripheral parts exchanged on the communication protocol are not standardized, and compatibility is not guaranteed. Therefore, different control commands may be required for different manufacturers or different parts, even for peripheral parts having the same function.
  • peripheral parts are directly connected to the image forming apparatus 102, and the image forming apparatus 102 directly controls the peripheral parts to extend the function of the image forming apparatus 102.
  • the controller firmware of the image forming apparatus 102 is newly added. A correction was needed to support the control command. Therefore, the selection of peripheral parts has required long-term stable supply that can be stably obtained over a long period of time. Furthermore, in order to satisfy various users' usage environments, usage conditions, and needs, high-performance, high-performance peripheral parts are needed, resulting in an increase in the cost of peripheral parts.
  • the microcomputer device 103 is connected to the image forming apparatus 102, and the microcomputer device 103 controls peripheral parts and the image forming apparatus 102.
  • the microcomputer device 103 includes control means corresponding to each peripheral part. Therefore, the image forming apparatus 102 need not be provided with means for controlling the peripheral parts, and updating of the controller firmware for responding to a new control command is not necessary.
  • the microcomputer device 103 having this configuration alleviates the selection conditions of the peripheral parts, and it is possible to adopt inexpensive peripheral parts having the necessary and sufficient performance for the use environment, use conditions, and needs of various users. become able to.
  • various peripheral parts can be flexibly made only by modifying the microcomputer device without modifying the image forming apparatus 102 in response to a new control command. It becomes possible to cope. This allows you to choose from a wide selection of peripheral parts that have the functionality and performance according to the user's needs, as well as long-term stable supply, and have a reasonable price.
  • the functions of the image forming apparatus can be flexibly expanded while reducing the need for addition or modification of the control program of the image forming apparatus and the addition or modification of hardware to the image forming apparatus. .
  • control method may be executed by the image forming apparatus 102 or the microcomputer device 103 as the control method of the above-described embodiment.
  • a program having the functions of the above-described embodiments may be used as a control program to cause a computer provided in the image forming apparatus 102 or the microcomputer device 103 to execute the control program.
  • the control program is recorded, for example, on a computer readable recording medium.
  • Embodiments The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or storage medium, and one or more processors in a computer of the system or apparatus read and execute the program. Can also be realized. It can also be implemented by a circuit (eg, an ASIC) that implements one or more functions.
  • a circuit eg, an ASIC

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Accessory Devices And Overall Control Thereof (AREA)
  • Control Or Security For Electrophotography (AREA)

Abstract

マイコンデバイス103が装着される画像形成装置102に関する。マイコンデバイス103が有するペリフェラルパーツに起因する制御コマンド非互換性に柔軟に対応できる手段を提供することで、画像形成装置102が搭載可能なペリフェラルパーツの機能・性能・価格等の選択の幅を広げ、画像形成装置102の機能の拡張性を向上できる。ステータス管理部162は画像形成装置102の状態を管理し、マイコンコマンド処理部181は画像形成装置102に装着されるマイコンデバイス103との通信を行う。マイコンコマンド処理部181はマイコンデバイス103からリクエストデータを受信するとともに、マイコンデバイス103にレスポンスデータを送信する。そして、マイコンコマンド処理部181は、受信したリクエストデータに基づいてステータス管理部162から画像形成装置102の状態を取得して、取得した画像形成装置102の状態に応じてレスポンスデータを決定する。

Description

コストを抑えてその機能の拡張を可能にする画像形成装置およびマイコンデバイス
 本発明は、画像形成装置およびマイコンデバイスに関し、特に、ペリフェラルパーツをオプション増設可能な画像形成装置に関する。
 一般に、プリンター又は複合機などの画像形成装置は、基本的な印刷機能を行うためのハードウェア部品に加え、センサー、チップ、およびアクチュエータなど(以下「ペリフェラルパーツ」と呼ぶ)を備えている。例えば、人感センサーを備える画像形成装置であって、当該人感センサーによってユーザーの接近を検知すると、ユーザーの位置や高さを判定し、画像形成装置において生じたジャムをユーザーが処理しやすい手順に変更してユーザーに報知する画像形成装置が知られている(特許文献1参照)。これによって、画像形成装置に給紙装置および後処理装置などが接続された状態で複数箇所でジャムが発生しても、ユーザーは、効率的にしかも短時間でジャムの解除を行うことができる。
 さらに、ペリフェラルパーツの1つである温度湿度センサーを後から増設できる画像形成装置が知られている(特許文献2参照)。これによって、画像形成装置に設定された制御を変更する必要のある環境下で使用する場合にのみ、温度湿度センサーなどの環境センサーを取り付ければよい。すなわち、画像形成装置を使用する環境に応じた最小限度の電力消費で画像形成装置を使用することが可能となる。
 ここで、画像形成装置にペリフェラルパーツを搭載する場合、画像形成装置に機能を追加・拡張できるというメリットと、コストが増加するデメリットとのトレードオフを考える必要がある。そのため、画像形成装置にペリフェラルパーツを搭載する形態は、大きく分けて標準搭載およびオプション搭載の2つである。標準搭載の形態では、特許文献1に記載のように画像形成装置にペリフェラルパーツが予め組み込まれる。一方、オプション搭載の形態では、特許文献2に記載のように画像形成装置にペリフェラルパーツが後から追加して搭載される。
特開2010−117422号公報 特開平11−143151号公報
 画像形成装置自体の制御プログラムを追加または改変することで新規にペリフェラルを追加すると、設計、実装、評価のコストが大きいという問題点があった。一方、専用コネクタを増設すると、ボード変更や外装の設計製造のコストが大きいという問題点があった。
 従って、本発明の目的は、上述の問題点の少なくとも1つを除去することができる画像形成装置およびマイコンデバイスを提供することにある。
 上記の目的を達成するため、本発明による画像形成装置は、少なくとも用紙上に画像を形成するあるいはデータとして画像を形成する機能を有する画像形成装置であって、前記画像形成装置の状態を管理するステータス管理手段と、前記画像形成装置に装着されるマイコンデバイスとの通信を行う通信手段と、前記通信手段によって前記マイコンデバイスからリクエストデータを受信するとともに、前記マイコンデバイスにレスポンスデータを送信するコマンド処手段と、を有し、前記コマンド処理手段は、前記受信したリクエストデータに基づいて前記ステータス管理手段から前記画像形成装置の状態を取得して、前記取得した画像形成装置の状態に応じて前記レスポンスデータを決定することを特徴とする。
 本発明によれば、画像形成装置の制御プログラムの追加または改変、ならびに画像形成装置へのハードウェアの追加または改変の必要を減らしてコストを抑えながら、画像形成装置が有する機能の柔軟な拡張とを同時に実現することが出来る。
 [図1]本発明の画像形成装置の実施形態の一例について、画像形成装置のハードウェアの構成を示すブロック図である。
 [図2]本発明の画像形成装置の実施形態で用いられるソフトウェアの構成を示すブロック図である。
 [図3A~図3D]図1に示すマイコンデバイスの一例の構成を説明するためのブロック図である。
 [図4]図3A~図3Dに示すマイコンデバイスのソフトウェア構成の一例を示すブロック図である。
 [図5A]図2に示すマイコンコマンド処理部が実行するマイコンコマンド処理を説明するためのフローチャートである。
 [図5B]図2に示すマイコンコマンド処理部が実行するマイコンコマンド処理を説明するためのフローチャートである。
 [図6]リクエストデータの一例を示す図である。
 [図7]リクエストデータの一例を示す図である。
 [図8]レスポンスデータの一例を示す図である。
 [図9]レスポンスデータの他の例を示す図である。
 [図10]図4に示すコマンド通信部が実行するコマンド通信処理を説明するためのフローチャートである。
 [図11A]図4に示すマイコンデバイス制御部が実行するエラーリカバリメッセージ発話処理を説明するためのフローチャートである。
 [図11B]図4に示すマイコンデバイス制御部が実行するエラーリカバリメッセージ発話処理を説明するためのフローチャートである。
 [図12]表示画面IDに対する発話コマンドの一例を示す図である。
 [図13]図11Aおよび図11Bで説明したエラーリカバリメッセージ発話処理における動作の一例を示す図である。
 [図14A]図4に示すマイコンデバイス制御部が実行する消耗品残量表示処理を説明するためのフローチャートである。
 [図14B]図4に示すマイコンデバイス制御部が実行する消耗品残量表示処理を説明するためのフローチャートである。
 [図15Aおよび図15B]図14Aおよび図14Bで説明した消耗品残量表示処理における動作の一例を示す図である。
 [図16A]図4に示すマイコンデバイス制御部が実行する電源制御補助処理を説明するためのフローチャートである。
 [図16B]図4に示すマイコンデバイス制御部が実行する電源制御補助処理を説明するためのフローチャートである。
 [図17]図16Aおよび図16Bで説明した電源制御補助処理における処理結果を示す図である。
 [図18]図4に示すマイコンデバイス制御部が実行する周辺環境ロギング処理を説明するためのフローチャートである。
 以下に、本発明の実施形態による画像形成装置の一例について図面を参照して説明する。
 画像形成装置にペリフェラルパーツを装着し、ペリフェラルパーツ毎に定義される制御コマンドを用いて、画像形成装置が当該ペリフェラルパーツを制御することで各種機能を実現することができる。ペリフェラルパーツには、多様化するユーザーのニーズを満足できるだけの高い機能性や性能が求められる。また、新旧ペリフェラルパーツ間の制御コマンドの互換性が保証されないことから、ペリフェラルパーツには、長期にわたって安定的に入手できる長期安定供給性が求められる。そのため、画像形成装置に装着できるペリフェラルパーツは限定される。更に、機能性や性能の課題、あるいは、部品の長期安定供給性の課題を解決するために、ペリフェラルパーツを搭載するためのコストが増加するという課題もある。画像形成装置の大部分のユーザーに有益な機能については、ペリフェラルパーツを標準搭載する構成が望ましい。例えば、人感センサーは、(特に商業印刷をターゲットとした)画像形成装置の紙搬送に係る複雑さを緩和でき、ユーザーの大部分にとって有益である。ゆえに、人感センサーは画像形成装置に標準搭載されることが望ましいといえる。
 画像形成装置の一部のユーザーに有益な機能については、ペリフェラルパーツをオプション搭載する構成が望ましい。特に、商談においては、各ユーザーのニーズに基いた様々な要望があり、必要となるペリフェラルパーツの機能性・性能も異なることが想定される。例えば、温度湿度センサーは、利用者の環境に起因する課題を解消するものであり、一部のユーザーにとって有益である。ゆえに、温度湿度センサーは画像形成装置にオプション搭載されることが望ましい例であるといえる。これらのオプションを搭載するための仕組みを本実施形態で説明する。
 図1は、本発明の画像形成装置102の実施形態の一例について、画像形成装置102のハードウェア構成を示すブロック図である。
 データ処理装置101(例えば、PC)は、PDLデータを生成し、当該PDLデータを画像形成装置102に送信する。
 画像形成装置102(例えば、レーザープリンタ)は、データ処理装置101から送信されたPDLデータを受信して、当該PDLデータに応じた画像データに基づいて用紙(紙媒体)に画像形成を行う。なお、画像形成装置102は、スキャナ機能およびFAX機能等を有する複合機であってもよい。この場合、スキャナ機能で読み込み取得した原稿データや、FAX機能によって受信した原稿データを基に、各種電子文章ファイルを画像形成する機能を有していてもよい。あるいは、スキャナ機能で読み込み取得した原稿データを基に用紙に画像形成する機能を有していても良い。更に、用紙へ画像形成する手段としては、電子写真方式に限らず、インクジェットなどの別の手段によって実現しても良い。
 画像形成装置102にはマイコンデバイス103が接続されている。当該マイコンデバイス103は、後述するように、画像形成装置102にペリフェラルパーツをオプション搭載するための装置である。
 図示のように、画像形成装置102は、コントローラ110、UIパネル111、およびプリントエンジン112を有している。UIパネル111は、ユーザインタフェイスであって、ユーザーに対して種々の情報を表示する表示部とユーザーによる操作を受け付ける操作部とを有している。例えば、UIパネル111は物理的なボタンの他にタッチパネルなどを備えてもよい。また、UIパネル111は、LEDの点灯または点滅によって、画像形成装置102で生じたエラーおよび警告を報知する機能を備えてもよい。さらには、UIパネル111は、ブザーなどの音によって、画像形成装置102で生じたエラーおよび警告を報知する機能を備えてもよい。
 コントローラ110は、データ処理装置101から送信されたPDLデータに基づいて、印刷用のビットマップデータ(画像データ)を生成する。そして、コントローラ110は、生成したビットマップデータをプリントエンジン112に送信する。なお、例えば画像形成装置101に関する設定および状態をレポートとして印刷するために、コントローラ110自体がPDLデータを生成して印刷指示をすることもできる。
 プリントエンジン112は、コントローラ110から受信したビットマップデータに基づいて、所謂電子写真方式によってトナーを用いて用紙に画像形成を行う。なお、画像形成には、トナーを記録材として用いる電子写真方式の他に、例えば、インクを記録材として用いるインクジェット方式を用いてもよい。さらに、プリントエンジン112は複数色の記録材を備え、PDLデータに係るカラー印刷を行うようにしてもよい。さらには、プリントエンジン112は複数の給紙段を備え、PDLデータによって指定された給紙段から用紙を給紙するようにしてもよい。
 図示のように、コントローラ110は、CPU121、ROM122、RAM123、NIC124、およびパネルI/F125を有している。さらに、コントローラ110は、エンジンI/F126、RIP部128、内蔵ストレージ部130、拡張I/F部132、およびタイマー(RTC:RealTimeClock)134を有している。そして、各構成要素はバス131によって相互に接続されている。
 CPU121は、ROM122又は内蔵ストレージ部130に格納されたコントローラーファーム(プログラム)をRAM123に展開して、当該プログラムを実行する。これによって、CPU121は画像形成装置102を制御する。なお、コントローラーファームについては後述する。
 ROM122は、CPU121が実行するコントローラーファームなどを記憶する不揮発メモリである。なお、例えば、最低限のファイルシステムアクセス機能などの基本機能のみを備える初期プログラムを起動して、当該初期プログラムがさらにコントローラーファームを実行する多段階構成として、コントローラーファームを起動してもよい。
 RAM123は、ROM122又は内蔵ストレージ部130から展開されたコントローラーファームなどを記憶する。また、RAM123は、PDLデータ、PDLデータを解釈して生成される中間データ、中間データをレンダリングして生成されるビットマップデータが記憶する。さらには、RAM123は、その他処理に必要な一時的な各種処理ステータスおよびログ情報なども記憶する。
 NIC124はネットワークインタフェイスコントローラーであって、データ処理装置101とコントローラ110とを相互に接続して、双方間のデータ通信、つまり、データの送信および受信を中継する。なお、接続には、有線接続又は無線接続が用いられる。有線接続の場合には、NIC124とデータ処理装置101とはイーサネット(登録商標)などを用いて接続される。
 パネルI/F125は、UIパネル111とコントローラ110とを相互に接続して、双方間のデータ通信、つまり、データの送信および受信を中継する。
 エンジンI/F126は、プリントエンジン112とコントローラ110とを相互に接続して、双方間のデータ通信、つまり、データの送信および受信を中継する。
 RIP部128は、中間データをビットマップデータに変換し、RAM123に展開する。なお、以下の説明では、RIP部128にはCPU121から独立した専用のチップが用いられる場合を説明する。なお、コントローラ110にRIP部128を設けることなく、CPU121がビットマップデータの変換処理を行ってもよい。
 内蔵ストレージ部130は、コントローラ110が利用する情報のうち電源を断としてもなお保持したいデータを格納するための不揮発性記憶領域である。例えば、内蔵ストレージ部130として、Flash ROMが用いられる。さらには、内蔵ストレージ部130として、ハードディスク又はソリッドステートドライブなどを用いてもよい。
 拡張I/F132は、画像形成装置102とマイコンデバイス103との間で通信を行うためのインタフェイスである。後述の、拡張I/F132としてUSB(Universal Serial Bus)インタフェイスを用いた例では、画像形成装置102からマイコンデバイス103への電源供給も考慮して説明する。
 RTC134は、画像形成装置102における時刻情報を不揮発に管理するためのハードチップである。RTC134を電池駆動することによって、画像形成装置102を電源断とした後であっても、時刻情報が定期的に更新される。
 図2は、本発明の画像形成装置102の実施形態で用いられるソフトウェアの構成を示すブロック図である。
 コントローラーファーム150は、ステータス管理部162、ジョブ制御部163、PDL制御部164、RIP制御部165、電源制御部175、イメージ制御部171、およびエンジン制御部172を備えている。
 ステータス管理部162は、画像形成装置の各モジュールの状態を管理および制御するモジュールである。ステータス管理部162は、ジョブ制御部163から通知されたジョブ実行状態、エラー状態、ジャム状態、又は消耗品状態を保持する。さらに、ステータス管理部162は、電源制御部175に対して電源制御するよう指示するとともに、UI制御部176に対して状態変更通知を行う。ステータス管理部162は、マイコンデバイス103からマイコンコマンド処理部181を介して、又は、データ処理装置101から送信された、状態取得要求又は状態変更要求を受けると、各モジュールに対して状態取得要求又は状態変更要求を行う。また、ステータス管理部162は、各モジュールから状態取得要求の結果又は状態変更要求の結果を受けると、マイコンデバイス103に当該結果を通知する。
 ステータス管理部162は、マイコンコマンド処理部181からの要求に応じて、UI制御部176によって表示されている画面のIDを通知する。ステータス管理部162は、マイコンコマンド処理部181からの要求に応じて、内蔵ストレージ部130に、不揮発データとして、データの書込処理又は読込処理を行う。ステータス管理部162は、マイコンコマンド処理部181からの要求に応じて、センサー値などのログデータとともに、それらを記録した日時情報を保存する(ロギングする)。ステータス管理部162は、マイコンコマンド処理部181からの要求に応じて、ユーザー名およびパスワードに基づいて、ユーザーログイン処理を行う。
 ジョブ制御部163は、データ処理装置101から送信されたPDLデータをプリントエンジン112で印刷するためのモジュールである。ジョブ制御部163は、ネットワークインタフェイス制御部174からPDLデータ送信が通知されると、送信されたPDLデータを基に、RAM123にPDLジョブを生成する。PDLジョブには、PDL制御部164、RIP制御部165、イメージ制御部171、およびエンジン制御部172に対する指示などが含まれる。なお、PDLデータがスプール指示を含む場合は、当該PDLデータはRAM123又は内蔵ストレージ部130に保持されることもある。
 ジョブ制御部163は、PDL制御部164、RIP制御部165、イメージ制御部171、およびエンジン制御部172に対して指示を行い、指示に応じた処理の完了通知や結果を受け取る。また、ジョブ制御部163は、エンジン制御部172から通知されたプリントエンジン112のエラー状態およびジャム状態を保持して、ステータス管理部162からの要求に対して当該状態を通知する。なお、エンジン制御部172がステータス管理部162に対して直接当該状態を通知してもよい。
 PDL制御部164は、ネットワークインタフェイス制御部174から通知されたPDLデータを、RIP制御部165が解釈可能な中間データに変換するモジュールである。PDL制御部164は、ジョブ制御部163からの指示に従って、PDLジョブ内の設定に基づいて、ネットワークインタフェイス制御部174から通知されたPDLデータを解析する。そして、PDL制御部164は、中間データをRAM123に生成する。PDLデータが印刷設定を含む場合には、PDL制御部164はPDLジョブの印刷設定を変更することもある。
 中間データは、RIP部128が効率的に処理可能であるデータフォーマットに基づいて生成される。例えば、スキャンライン方式のRIP部128であれば、PDLデータにおけるオブジェクトの重なりが除去され、小イメージが結合され、オブジェクト間の合成処理がより効率的に変換できるように中間データが生成される。
 なお、PDL制御部164が複数のPDLインタプリタを有し、PDLデータの種別に応じてPDLインタプリタを使い分けてもよい。また、UIパネル111におけるユーザー操作をトリガーとして、画像形成装置においてPDLデータを生成してもよい。例えば、画像形成装置102で行われた設定の一覧を出力するレポートプリント機能の実現に使うことができる。PDL処理が完了すると、PDL制御部164はジョブ制御部163に対してPDL処理の完了を通知する。
 RIP制御部165は、PDLインタプリタ164が生成した中間データを、印刷に用いるビットマップデータに変換して、イメージ制御部171へ通知するモジュールである。
 RIP制御部165は、ジョブ制御部163からの指示に従い、ジョブ制御部163が生成したPDLジョブ内の設定に基づいて、PDL制御部164が生成した中間データを基にして、ビットマップデータをRAM123に生成する。具体的には、RIP制御部165は、RIP部128に対して、中間データを保持しているメモリアドレスおよびビットマップデータを格納するメモリアドレスを通知する。ビットマップデータはページ単位である他、バンド単位、チャンネル単位、又はブロック単位で生成してもよい。
 また、後述するイメージ制御部171で行われるハーフトーン処理の代わりに、ビットマップデータ生成の際にハーフトーン処理を施してもよい。RIP制御部165はビットマップデータをRAM123に格納する代わりに、イメージ制御部171に直接送信してもよい。RIP処理が完了すると、RIP制御部165はジョブ制御部163に対してRIP処理の完了を通知する。
 イメージ制御部171は、エンジン制御部172に、ビットマップデータを、プリントエンジン112において印刷するために適したスプールデータに変換するモジュールである。イメージ制御部171は、ジョブ制御部163からの指示に従い、ジョブ制御部163で生成されたPDLジョブの設定に基づいて、RIP制御部165が生成したビットマップデータを基に、スプールデータをRAM123に生成する。
 スプールデータは、レンダリング画像をプリントエンジン112に通知するために、レンダリング画像を適した形式に変換して作成したものである。例えば、イメージ制御部171によって、ビットマップデータに対してハーフトーン処理を施してもよい。さらには、イメージ制御部171がカラーマネジメントシステムを有する場合、色味がプリントエンジン112に最適になるようにレンダリング画像に対して補正を行ってもよい。また、スプールデータの保持に要するデータ容量を削減するため、イメージ制御部171によってビットマップデータを可逆圧縮又は非可逆圧縮した上で、スプールデータを作成して保持してもよい。
 イメージ処理が完了したら、イメージ制御部171はジョブ制御部163に対してイメージ処理の完了を通知する。
 エンジン制御部172は、スプールデータをプリントエンジン112で用紙に印刷するモジュールである。また、エンジン制御部172は、プリントエンジン112から通知されるプリントエンジン112の状態を取得して設定する。
 エンジン制御部172は、ジョブ制御部163からの指示に従って、ジョブ制御部163が生成したPDLジョブ内の設定に基づいて、イメージ制御部171が生成したスプールデータを印刷する指示をプリントエンジン112に対して行う。プリントエンジン112が複数の給紙段を有する場合、エンジン制御部172は、いずれの給紙段から給紙をするかの指示をプリントエンジン112に対して行う。また、イメージ制御部171によってスプールデータが可逆圧縮又は非可逆圧縮されている場合、エンジン制御部172はスプールデータを展開する。そして、プリントエンジン112は、展開されたスプールデータに基づいて用紙に印刷する処理を行う。
 この際、プリントエンジン112が複数の排紙段を有する場合、いずれの排紙段に用紙を排紙するかをプリントエンジン112に対して指示してもよい。また、排紙段が用紙に対する加工機能を有している場合には、エンジン制御部172は加工に係る制御を行ってもよい。例えば、エンジン制御部172は用紙をステイプルによって止める又は用紙を折り曲げるなどの加工を行うように制御してもよい。
 エンジン制御部172は、ジョブ制御部163からの指示に従い、プリントエンジン112から通知される種々のエラー状態、ジャム状態、および消耗品状態を、ジョブ制御部163にステータスとして通知する。
 エラー状態には、プリントエンジン112の本体カバーが開いているので印刷処理を行えない状態などが含まれる。さらには、エラー状態には、指定された給紙段に用紙が存在せず、プリントエンジン112が印刷処理を行えない状態なども含まれる。
 ジャム状態には、印刷処理を行った際に用紙が搬送路でつまった状態などが含まれる。消耗品状態には、トナーカートリッジ、トナーボトル、又は給紙段カセットに消耗品が含まれているのか、そして、消耗品が含まれているならばどの程度残っているのかなどが含まれる。消耗品状態は、プリントエンジン112に備えられたセンサーによって物理的に検出される他、プリントエンジン112による演算によって論理的に算出されるようにしてもよい。
 エンジン制御部172は、電源制御部175からの指示に従い、プリントエンジン112の電源制御を行う。電源制御部175は、節電状態(又はスリープ状態)への突入又は復帰の指示を行う。節電状態においては、画像形成装置102を構成する部品の一部のみに給電をすることによって、印刷を行わない待機状態において消費電力を削減する。
 ネットワークインタフェイス制御部174は、データ処理装置101との通信を制御するモジュールである。ネットワークインタフェイス制御部174は、NIC124を制御して、データ処理装置101からのデータを送受信する。ネットワークインタフェイス制御部174は、ジョブ制御部163を介してデータ処理装置101から送信されたPDLデータをPDL制御部164に通知する。
 ネットワークインタフェイス制御部174は、データ処理装置101から状態取得要求又は状態変更要求が通知されると、ステータス管理部162に状態取得要求又は状態変更要求を行う。ネットワークインタフェイス制御部174は、ステータス管理部162から状態取得結果又は状態変更結果が通知されると、通知された結果をデータ処理装置101に通知する。
 また、ネットワークィンタフェイス制御部174は、データ処理装置101から、画像形成装置102の状態を表示および制御するためのウェブページの表示要求を受け取ると、受け取った表示要求をUI制御部176に通知する。
 電源制御部175は、画像形成装置102の電源の状態(以下、「電源状態」)を管理するモジュールである。電源制御部175は、ステータス管理部162から受け取った状態取得要求または状態変更要求に従い、エンジン制御部172に対して画像形成装置102の電源状態の取得指示または画像形成装置102の電源状態の変更指示を行う。なお、プリントエンジン112を介してコントローラ110の電源状態を管理してもよい。
 UI制御部176は、ステータス管理部162から通知された状態変更通知を基に、UIパネル111を介してユーザーに種々の情報を報知するためのモジュールである。UI制御部176は、UIパネル111を介して行われたユーザーの操作の結果として、UIパネル111にどのような画面を表示するかを管理するための画像形成装置102の状態を保持する。
 UI制御部176は、ネットワークインタフェイス制御部174からウェブページ表示要求を受け取ると、データ処理装置101に対して画像形成装置102の状態を表示および制御するためのウェブページを提供してもよい。
 マイコンコマンド処理部181は、マイコンデバイス103から通知されるリクエストデータを解釈して、ステータス管理部162に対して状態取得要求又は状態変更要求を送信する。マイコンコマンド処理部181は、ステータス管理部162から状態取得結果又は状態変更結果を受信すると、マイコンデバイス103にレスポンスデータとして受信した結果を通知する。この処理については後述する。
 外部I/F制御部182は、マイコンコマンド処理部181がマイコンデバイス103と通信を行う際に、拡張I/F132を制御するモジュールである。例えば、外部I/F制御部182は、画像形成装置102にマイコンデバイス103が接続されているか否かを判定する機能などを有している。
 図3A~図3Dは、図1に示すマイコンデバイス103の一例の構成を説明するためのブロック図である。
 図3Aはエラーリカバリメッセージ発話処理を行うためのマイコンデバイス210のハードウェア構成を示すブロック図であり、図3Bは消耗品残量表示処理を行うためのマイコンデバイス220のハードウェア構成を示すブロック図である。また、図3Cは電源制御補助処理を行うためのマイコンデバイス230のハードウェア構成を示すブロック図であり、図3Dは周辺環境ロギング処理を行うためのマイコンデバイス240のハードウェア構成を示すブロック図である。
 マイコンデバイス210、220、230、240はそれぞれ、マイコンチップ201、USBシリアル通信チップ202、およびペリフェラルパーツ群を有する。
 マイコンチップ201は、マイコンデバイス103を制御するためのICチップである。マイコンチップ201はROMおよびRAMを備え(不図示)、マイコンデバイス103を制御するマイコンファーム250(図3A~図3Dにおいて不図示)がROMに格納されている。マイコンチップ201はRAMを用いてマイコンファーム250を実行する。
 また、マイコンチップ201は、複数の外部ピンを有し、各外部ピンを介してUSBシリアル通信チップ202またはペリフェラルパーツ群と通信する機能を備えている。図示の例では、マイコンチップ201はシリアル通信可能な外部ピンを介して、USBシリアル変換チップ202と接続する。マイコンチップ201はペリフェラルパーツと通信可能な外部ピンを介して、各ペリフェラルパーツに接続する。
 なお、ペリフェラルパーツと接続する際には、GPIO(General Porpose Input/Output)又はI2C(Inter−Integrated Circuit)を用いることができる。また、ペリフェラルパーツと接続する際には、SPI(シリアル・ペリフェラル・インターフェイス)などを用いてもよい。
 USBシリアル変換チップ202は、マイコンデバイスと画像形成装置102との間において通信を行う際に、電気的又は論理的通信プロトコルの変換処理を行うモジュールである。さらに、USBシリアル変換チップ202は、画像形成装置102から供給される電力を変換して、マイコンデバイス103に供給する機能を有している。
 ペリフェラルパーツ群は、マイコンデバイス103に装着される複数のペリフェラルパーツである。例えば、ペリフェラルパーツ群として距離センサー211および音声合成チップ212などがある。なお、図3A~図3Dに示すペリフェラルパーツ以外のペリフェラルパーツを装着してもよい。
 図3Aに示す例では、ペリフェラルパーツ群として距離センサー211および音声合成チップ212がマイコンチップ201に装着され、マイコンデバイス210はエラーリカバリメッセージ発話処理を行う。音声合成チップ212はアンプ213を介してスピーカー214に接続されている。
 距離センサー211は、マイコンチップ201からの指示に従い、距離センサー211の正面から障害物までの距離を測定する。例えば、距離センサー211は超音波を発した後、障害物で反射した超音波を受信するまでの時間を測定して、障害物との距離を測定する。
 音声合成チップ212は、マイコンチップ201からの指示に従い、マイコンチップ201から発話データを受信すると受信した発話データを基にPCMデータを生成する。そして、音声合成チップ212は外部ピンに生成したPCMデータを出力する。PCMデータはアナログデータとして出力するようにしてもよく、PWM(Pulse Width Modulation)によって出力してもよい。図示の例では、音声合成チップ212は、PCMデータを、アンプ213にPWM信号として入力する。
 アンプ213は受け取ったPWM信号を増幅して、スピーカー214に出力する。スピーカー214は、アンプ213から受け取ったPWM信号に応じた音響を出力する。
 図3Bに示す例では、ペリフェラルパーツ群としてLCDパネル221およびスイッチ222がマイコンチップ201に装着され、マイコンデバイス220は消耗品残量表示処理を行う。
 LCDパネル221は、マイコンチップ201からの指示に従い、LCDパネル221(例えば液晶パネル)に文字およびグラフィックを表示する。なお、LCDパネル221としてテキストを表示する機能のみを有するパネルを用いてもよい。さらには、より表現の自由度が高いグラフィックを表示する機能を有するLCDパネルを用いてもよい。
 装着されたLCDパネル221がグラフィックを表示する機能を有する場合には、マイコンチップ201のRAMが、グラフィックデータの保存領域であるフレームバッファを有してもよく、LCDパネル221がフレームバッファを有してもよい。さらに、LCDパネル221は、1画素をオンおよびオフで表現するモノクロパネルであってもよく、RGB値で色を指定可能なカラーパネルであってもよい。
 スイッチ222は、スイッチ222に対するイベントをマイコンチップ201に通知する。例えば、スイッチ222が押下されていない状態から押下されている状態に移行した場合には、スイッチ222はイベントとして「RISING」をマイコンチップ201に通知する。一方、スイッチ222が押下されている状態から押下されていない状態に移行した場合には、スイッチ222はイベントとして「FALLING」をマイコンチップ201に通知する。さらに、スイッチ222が押下されている状態のままである場合には、スイッチ222は「HIGH」をマイコンチップ201に通知する。そして、スイッチ222が押下されていない状態のままである場合には、スイッチ222は「LOW」をマイコンチップ201に通知する。なお、スイッチ222にはチャタリングを除去するための手段が備えられることが望ましい。
 図3Cに示す例では、ペリフェラルパーツ群として照度センサー231および人感センサー232がマイコンチップ201に装着され、マイコンデバイス230は電源制御補助処理を行う。
 照度センサー231は、マイコンチップ201からの指示に従い、照度センサー231周辺の光を検知して光の明るさを測定する(照度検出)。照度センサー231が検知して測定する光の明るさは、可視光の明るさであっても赤外線の明るさであってもよい。照度センサー231は、測定した結果をマイコンチップ201に通知する。
 人感センサー232は、マイコンチップ201からの指示に従い、人感センサー232周辺に人体が近づいたか否かを検知する(人検知)。例えば、人感センサー232は、赤外線を用いて人体の接近を検知する。人感センサー232は、検知した結果をマイコンチップ201に通知する。
 図3Dに示す例では、ペリフェラルパーツ群としてCO/COセンサー241および温度/湿度センサー242がマイコンチップ201に装着され、マイコンデバイス240は周辺環境ロギング処理を行う。
 CO/COセンサー241は、マイコンチップ201からの指示に従い、CO/COセンサー241周辺のCOの濃度およびCOの濃度を測定する。CO/COセンサー241は、測定した結果をマイコンチップ201に通知する。
 温度/湿度センサー242は、マイコンチップ201からの指示に従い、温度/湿度センサー242周辺の温度および湿度を測定する。温度/湿度センサー242は、測定した結果をマイコンチップ201に通知する。
 図4は、図3A~図3Dに示すマイコンデバイス210~240のソフトウェア構成の一例を示すブロック図である。
 マイコンデバイス210~240の各々に備えられたマイコンファーム250は、マイコンデバイス制御部251、コマンド通信部261、シリアル通信部262(UART)、ペリフェラルパーツ制御部271、およびペリフェラルパーツ通信部272を備えている。
 マイコンデバイス制御部251は、マイコンデバイス103全体の制御を行うモジュールである。マイコンデバイス制御部251は、コマンド通信部261に対して状態取得要求又は状態変更要求を送信する。また、マイコンデバイス制御部251は、コマンド通信部261から状態取得結果又は状態変更結果を受信する。
 コマンド通信部261は、マイコンデバイス103と画像形成装置102との間の上位レイヤーにおいて通信を制御するモジュールである。コマンド通信部261は、マイコンデバイス制御部251から状態取得要求又は状態変更要求を受け取ると、受けた要求を、ヘッダなどを含むリクエストデータに変換する。また、コマンド通信部261は、画像形成装置102からリクエストデータを受信すると、ヘッダなどを削除して、マイコンデバイス制御部251に状態取得結果又は状態変更結果として通知する。
 シリアル通信部262は、マイコンデバイス103と画像形成装置102との間の下位レイヤーにおいて通信を制御するモジュールである。シリアル通信部262は、USBシリアル変換チップ202を介して通信速度の設定およびパリティビットの有無の制御などを行う。
 ここで、図示の例では、画像形成装置102とマイコンデバイス103との間の通信を容易に実現するため、USBシリアル変換チップ202を用いる例を挙げた。一方、USB通信機能を有するマイコンチップ201を用いて、ソフトウェアでこの通信を実現してもよい。さらには、USB通信機能を有するマイコンチップ201を用いて、独自プロトコルで画像形成装置102とマイコンデバイス103との間の通信を行った上で、画像形成装置102において当該独自プロトコルを解釈するようにしてもよい。
 ペリフェラルパーツ制御部271は、各ペリフェラルパーツを制御する。ペリフェラルパーツ制御部271は、各ペリフェラルパーツに必要な初期化、状態変更、および状態取得などを行う。複数のペリフェラルパーツが存在する場合には、各ペリフェラルパーツに対応してペリフェラルパーツ制御部271が存在する。
 ペリフェラルパーツ通信部272は、ペリフェラルパーツ制御部271とペリフェラルパーツ290との間の通信を制御する。ペリフェラルパーツ通信部272は、マイコンチップ201とペリフェラルパーツ290との間の通信速度およびトランザクション処理の開始/終了の通知など、ペリフェラルパーツの種類に依存しない通信に必要な設定および制御を行う。
 図5Aおよび図5Bは、図2に示すマイコンコマンド処理部181が実行するマイコンコマンド処理を説明するためのフローチャートである。
 マイコンコマンド処理部181は、マイコンデバイス103が画像形成装置102に物理的に接続されているか否かを外部I/F制御部182によって確認する(ステップS301)。そして、マイコンコマンド処理部181は、画像形成装置102にマイコンデバイス103が物理的に接続されているか否かを判断する(ステップS302)。
 画像形成装置102にマイコンデバイス103が物理的に接続されていない場合(ステップS302において、NO)、マイコンコマンド処理部181は所定の時間(例えば、5000ミリ秒)待機する(ステップS303)。そして、マイコンコマンド処理部181は、処理をステップS301に戻す。
 画像形成装置102にマイコンデバイス103が接続されている場合(ステップS302において、YES)、マイコンコマンド処理部181は、外部I/F制御部182に対して通信初期化処理を行うよう指示する。外部I/F制御部182は、通信初期化処理を行い、マイコンデバイス103との通信を確立する(ステップS304)。
 続いて、マイコンコマンド処理部181は、外部I/F制御部182を介してマイコンデバイス103が送信したリクエストデータをステップS311において受信するまで待機する。
 マイコンコマンド処理部181は、マイコンデバイス103が送信したリクエストデータを受信する前にタイムアウトが発生したか否かを判定する(ステップS312)。なお、マイコンコマンド処理部181は、所定の時間(例えば、30秒間)が経過してもリクエストデータを受信できない場合、タイムアウトが発生したと判定する。タイムアウトが発生した場合(ステップS312において、YES)、マイコンコマンド処理部181は、外部I/F制御部182に対して通信終了処理を行うよう指示する(ステップS313)。そして、マイコンコマンド処理部181は、処理をステップS301に戻す。
 一方、ステップS311においてリクエストデータを受信すると(ステップS311において、YES)、マイコンコマンド処理部181は、受信したリクエストデータの内容に基づいてコマンド文字列種別を判定する(ステップS320)。
 マイコンコマンド処理部181は、コマンド文字列種別の判定結果に応じて後述する所定の処理を行う(ステップS320~S332)ことで、ステータス管理部162に対して状態取得要求又は状態変更要求を行う。そして、マイコンコマンド処理部181は、ステータス管理部162から通知された状態取得結果又は状態変更結果に基づいて、レスポンスデータを決定する。
 図6および図7はリクエストデータの一例を示す図であり、図8はレスポンスデータの一例を示す図である。また、図9はレスポンスデータの他の例を示す。
 例えば、マイコンコマンド処理部181は、リクエストデータ”?SLEEP”を受信すると、受信したリクエストデータは画像形成装置102の電源状態の状態取得要求であると解釈して、画像形成装置102の電源状態の状態取得処理を行う。その結果、画像形成装置102の電源状態が節電中であれば、マイコンコマンド処理部181はレスポンスデータを”SLEEP”に決定する。
 一方、画像形成装置102の電源状態が、例えば印刷可能状態であって、節電中ではない場合には、マイコンコマンド処理部181はレスポンスデータを”AWAKE”に決定する。
 受信したリクエストデータが“?SCREENID”である場合に決定され得るレスポンスデータおよび対応する意味を図8に示す。
 受信したリクエストデータが”!LOGaaaabbbbb”である場合に決定され得るレスポンスデータ(ここでは、ログ種別)および対応する意味を図9に示す。
 ステップS320において、リクエストデータが「?SLEEP」である場合には、マイコンコマンド処理部181は、画像形成装置102の電源状態に基づいてレスポンスデータを決定する(ステップS321)。ステップS321において、マイコンコマンド処理部181は、ステータス管理部162に対して画像形成装置102の電源状態の取得を要求する。
 これに応答して、ステータス管理部162は、電源制御部175によって管理される画像形成装置102の電源状態を取得して、取得した画像形成装置102の電源状態をマイコンコマンド処理部181に通知する。マイコンコマンド処理部181は、受信した通知に基づいて、レスポンスデータを決定する。例えば、ステータス管理部162から電源状態がスリープ状態であると通知を受けた場合、マイコンコマンド処理部181はレスポンスデータを「SLEEP」に決定する。一方、ステータス管理部162から電源状態がスリープ状態でないと通知を受けた場合、マイコンコマンド処理部181はレスポンスデータを「AWAKE」に決定する。
 ステップS320において、リクエストデータが「!SLEEP」又は「!AWAKE」である場合、マイコンコマンド処理部181は、画像形成装置102の電源状態の状態変更要求に対する結果(成功または失敗)に基づいてレスポンスデータを決定する(ステップS322)。ステップS322において、マイコンコマンド処理部181は、ステータス管理部162に対して画像形成装置102の電源状態の変更を要求する。ステータス管理部162は電源制御部175に対して電源状態の状態変更要求を通知する。
 受信したリクエストデータが「!SLEEP」である場合、ステータス管理部162は、画像形成装置102の電源状態をスリープ状態に変更する状態変更要求を電源制御部175に対して通知する。受信したリクエストデータが「!AWAKE」である場合、ステータス管理部162は画像形成装置102をスリープ状態から復帰させる状態変更要求を電源制御部175に対して通知する。電源制御部175は電源状態の状態変更要求を受けると、電源状態の変更を試みて、その結果をステータス管理部162に通知する。
 画像形成装置102の電源状態がスリープ状態である時に、電源制御部175が、画像形成装置102の電源状態をスリープ状態に変更する状態変更要求を受けた場合には、電源制御部175は、電源状態の状態変更結果を、失敗である、とする。また、画像形成装置102をスリープ状態から復帰させる状態変更要求を、画像形成装置102がスリープ状態以外の状態(例えば印刷可能状態)である時に受けた場合には、電源制御部175は、電源状態の状態変更結果を、失敗である、とする。
 その他の理由によって、画像形成装置102がスリープ状態に変更されなかったか又はスリープ状態から復帰されなかった場合も、電源制御部175は、電源状態の状態変更結果を、失敗である、とする。
 電源制御部175はステータス管理部162に電源状態の状態変更結果を通知する。ステータス管理部162は、受信した電源状態の状態変更結果をマイコンコマンド処理部181に通知する。
 マイコンコマンド処理部181は、受信した電源状態の状態変更結果に基づいてレスポンスデータを決定する。受信した電源状態の状態変更結果が失敗である場合には、マイコンコマンド処理部181はレスポンスデータを「NG」に決定する。
 電源制御部175において画像形成装置102が要求されたとおりにスリープ状態に移行したか又は画像形成装置102がスリープ状態から復帰した場合には、電源状態の状態変更結果は成功となる。電源制御部175はステータス管理部162に電源状態の状態変更結果を通知する。ステータス管理部162は、受信した電源状態の状態変更結果をマイコンコマンド処理部181に通知する。通知された状態変更結果が成功である場合には、マイコンコマンド処理部181はレスポンスデータを「OK」に決定する。
 ステップS320において、リクエストデータが「?JOB」である場合には、マイコンコマンド処理部181は、画像形成装置102のジョブ実行の状態(以下、「ジョブ実行状態」)に基づいてレスポンスデータを決定する(ステップS323)。ステップS323において、マイコンコマンド処理部181は、ステータス管理部162に対して画像形成装置102のジョブ実行状態の取得を要求する。
 ステータス管理部162は、ジョブ実行状態に基づいてジョブ実行状態をマイコンコマンド処理部181に通知する。例えば、ステータス管理部162は、画像形成装置102が、ジョブ実行中である、ジョブエラー発生中である、もしくは、何事も発生していない待機中である旨をジョブ実行状態としてマイコンコマンド処理部181に通知する。
 受信したジョブ実行状態がジョブ実行中である場合には、マイコンコマンド処理部181はレスポンスデータを「RUNNING」に決定する。受信したジョブ実行状態がジョブエラー発生中である場合には、マイコンコマンド処理部181はレスポンスデータを「ERROR」に決定する。受信したジョブ実行状態が待機中である場合には、マイコンコマンド処理部181はレスポンスデータを「IDLE」に決定する。
 ステップS320において、リクエストデータが「?SPOOLJOB」である場合には、マイコンコマンド処理部181は、画像形成装置102のスプールジョブ実行の状態(以下、「スプールジョブ実行状態」)に基づいてレスポンスデータを決定する(ステップS324)。
 ステップS324において、マイコンコマンド処理部181は、ステータス管理部162に対してスプールジョブ実行状態の取得を要求する。画像形成装置102においてスプールジョブが存在している場合には、ステータス管理部162は、スプールジョブ実行状態として、スプールジョブ有る旨をマイコンコマンド処理部181に通知する。画像形成装置102においてスプールジョブが存在していない場合には、ステータス管理部162は、スプールジョブ実行状態としてスプールジョブが無い旨をマイコンコマンド処理部181に通知する。
 受信したスプールジョブ実行状態がスプールジョブ有りである場合、マイコンコマンド処理部181はレスポンスデータを「STORED」に決定する。受信したスプールジョブ実行状態がスプールジョブ無しである場合、マイコンコマンド処理部181はレスポンスデータを「NONE」に決定する。
 ステップS320において、リクエストデータが「?ERROR」である場合には、マイコンコマンド処理部181は、画像形成装置102において発生しているエラーの状態(以下、「エラー状態」)に基づいてレスポンスデータを決定する(ステップS325)。ステップS325において、マイコンコマンド処理部181は、ステータス管理部162に対してエラー状態の取得を要求する。
 画像形成装置102においていずれかの搬送路でジャムが発生している場合には、ステータス管理部162は、エラー状態として「ジャムエラー中」をマイコンコマンド処理部181に通知する。受信したエラー状態が「ジャムエラー中」である場合、マイコンコマンド処理部181は、レスポンスデータを「JAM」に決定する。
 画像形成装置102においていずれかのカバーが開いている場合には、ステータス管理部162は、エラー状態として「カバーエラー中」をマイコンコマンド処理部181に通知する。受信したエラー状態が「カバーエラー中」である場合、マイコンコマンド処理部181は、レスポンスデータを「COVER」に決定する。
 画像形成装置102においてカートリッジに関するエラーが発生している場合には、ステータス管理部162は、エラー状態として「カートリッジエラー中」をマイコンコマンド処理部181に通知する。受信したエラー状態が「カートリッジエラー中」である場合、マイコンコマンド処理部181は、レスポンスデータを「CRG」に決定する。
 いずれのエラーも発生していない場合には、ステータス管理部162は、エラー状態として「エラー無し」をマイコンコマンド処理部181に通知する。受信したエラー状態が「エラー無し」である場合、マイコンコマンド処理部181は、レスポンスデータを「NONE」と決定する。
 ステップS320において、リクエストデータが「?COVER」である場合には、マイコンコマンド処理部181は、画像形成装置102のカバーの状態(以下、「カバー状態」)に基づいてレスポンスデータを決定する(ステップS326)。ステップS326において、マイコンコマンド処理部181は、ステータス管理部162に対して画像形成装置102のカバー状態の取得を要求する。
 画像形成装置102において前カバーが開いている場合には、ステータス管理部162は、カバー状態として「前カバーエラー」をマイコンコマンド処理部181に通知する。受信したカバー状態が「前カバーエラー」である場合、マイコンコマンド処理部181はレスポンスデータを「FRONT」に決定する。
 画像形成装置102において後カバーが開いている場合には、ステータス管理部162は、カバー状態として「後カバーエラー」をマイコンコマンド処理部181に通知する。受信したカバー状態が「後カバーエラー」である場合、マイコンコマンド処理部181はレスポンスデータを「REAR」に決定する。
 画像形成装置102において右カバーが開いている場合には、ステータス管理部162は、カバー状態として「右カバーエラー」をマイコンコマンド処理部181に通知する。受信したカバー状態が「右カバーエラー」である場合、マイコンコマンド処理部181はレスポンスデータを「RIGHT」に決定する。
 ステップS320において、リクエストデータが「?CRGY」、「?CRGM」、「?CRGC」、又は「?CRGK」である場合、マイコンコマンド処理部181は、画像形成装置102のトナーカートリッジの状態(以下、「トナーカートリッジ状態」)に基づいてレスポンスデータを決定する(ステップS327)。
 また、リクエストデータが「?CRG1」、「?CRG2」、「?CRG3」、又は「?CRG4」である場合、マイコンコマンド処理部181は、画像形成装置102のドラムカートリッジの状態(以下、「ドラムカートリッジ状態」)に基づいてレスポンスデータを決定する(ステップS327)。なお、図5Bにおいて、「?CRGx」における「x」は、「Y(イエロー)」、「M(マゼンタ)」、「C(シアン)」及び「K(ブラック)」のいずれかであり、ドラムカートリッジについては「Y」、「M」、「C」、「K」のそれぞれに「1」、「2」、「3」、「4」を付与する。
 ステップS327において、マイコンコマンド処理部181は、ステータス管理部162に対して指定されたカートリッジの状態(以下、「カートリッジ状態」)の取得を要求する。画像形成装置102において指定されたカートリッジがサポートされていない場合には、ステータス管理部162は、カートリッジ状態として「非サポート」をマイコンコマンド処理部181に通知する。受信したカートリッジ状態が「非サポート」である場合、マイコンコマンド処理部181は、レスポンスデータを「NOTSUPPORT」に決定する。
 例えば、画像形成装置102においてトナードラム一体型カートリッジを用いる場合には、ドラムカートリッジに対するリクエストデータ「?CRG1」、「?CRG2」、「?CRG3」、および「?CRG4」に対するカートリッジ状態は、それぞれ常に「非サポート」である。また、画像形成装置102がモノクロエンジンを搭載している場合、すなわち、画像形成装置102がブラックトナーのみをサポートしている場合、リクエストデータ「?CRGY」、「?CRGM」、「?CRGC」、「?CRG1」、「?CRG2」、および「?CRG3」に対するカートリッジ状態は、それぞれ常に「非サポート」である。
 画像形成装置102が指定されたカートリッジが装着されていない場合には、ステータス管理部162は、カートリッジ状態として「未装着」をマイコンコマンド処理部181に通知する。カートリッジ状態が「未装着」である場合、マイコンコマンド処理部181は、レスポンスデータを「NOTATTACHED」と決定する。
 画像形成装置102において指定されたカートリッジが適切でない位置に装着されている場合には、ステータス管理部162は、カートリッジ状態として「装着位置不正」をマイコンコマンド処理部181に通知する。ここで、例えば、画像形成装置102においてイエロートナーカートリッジを装着するべき位置にマゼンタトナーカートリッジが装着された場合には、ステータス管理部162は、カートリッジが適切でない位置に装着されていると見なす。
 受信したカートリッジ状態が「装着位置不正」である場合には、マイコンコマンド処理部181はレスポンスデータを「MISMATCHED」に決定する。
 画像形成装置102において指定されたカートリッジとの通信に失敗した場合には、ステータス管理部162は、カートリッジ状態として「通信エラー」をマイコンコマンド処理部181に通知する。受信したカートリッジ状態が「通信エラー」である場合、マイコンコマンド処理部181はレスポンスデータを「COMERR」に決定する。
 ステータス管理部162は、画像形成装置102において指定されたカートリッジがサポートされており、指定されたカートリッジとの通信が成功し、かつ指定されたカートリッジが適切な位置に装着されている場合、カートリッジ状態を「取得成功」とする。そして、ステータス管理部162は、カートリッジ状態にカートリッジ寿命残量情報を付与して、カートリッジ状態をマイコンコマンド処理部181に通知する。例えば、新品のカートリッジの場合、カートリッジ寿命残量情報は”100%”となり、寿命に到達したカートリッジの場合、カートリッジ寿命残量情報は”0%”となる。
 カートリッジ状態が「取得成功」である場合、マイコンコマンド処理部181は、レスポンスデータをカートリッジ寿命残量情報に基づいて決定する。例えば、カートリッジ寿命残量情報が”100%”の場合、マイコンコマンド処理部181はレスポンスデータを「100%」と決定する。また、カートリッジ寿命残量情報が”0%”の場合、マイコンコマンド処理部181はレスポンスデータを「0%」と決定する。
 ステップS320において、リクエストデータが「?CST1」、「?CST2」、「?CST3」、「?CST4」、又は「?MPTRAY」である場合、マイコンコマンド処理部181は、画像形成装置102の給紙段の状態(以下、「給紙段状態」)に基づいてレスポンスデータを決定する。また、リクエストデータが「?FINISHER1」又は「?FINISHER2」である場合、マイコンコマンド処理部181は、画像形成装置102の排紙段の状態(以下、「排紙段状態」)に基づいてレスポンスデータを決定する(ステップS328)。
 ステップS328において、マイコンコマンド処理部181は、ステータス管理部162に対して給紙段状態又は排紙段状態の取得を要求する。画像形成装置102において指定された給紙段又は排紙段が装着されていない場合には、ステータス管理部162は、給紙段状態又は排紙段状態として「未装着」をマイコンコマンド処理部181に通知する。給紙段状態又は排紙段状態が「未装着」である場合、マイコンコマンド処理部181はレスポンスデータを「NOTATTACHED」に決定する。
 画像形成装置102において指定された給紙段又は排紙段でジャムが発生している場合には、ステータス管理部162は、給紙段状態又は排紙段状態として「ジャムエラー」をマイコンコマンド処理部181に通知する。給紙段状態又は排紙段状態が「ジャムエラー」である場合、マイコンコマンド処理部181はレスポンスデータを「JAMERROR」に決定する。
 画像形成装置102において指定された給紙段又は排紙段で過積載が発生している場合には、ステータス管理部162は、給紙段状態又は排紙段状態として「過積載」をマイコンコマンド処理部181に通知する。給紙段状態又は排紙段状態が「過積載」である場合、マイコンコマンド処理部181はレスポンスデータを「OVERLOAD」に決定する。
 画像形成装置102において当該給紙段又は当該排紙段が装着され、かつ、当該給紙段又は当該排紙段でジャムおよび過積載が発生していない場合、ステータス管理部162は、給紙段状態又は排紙段状態を「取得成功」とする。そして、ステータス管理部162は、給紙段状態又は排紙段状態に、排紙段又は給紙段の残量情報(容量残量情報)を付与して、マイコンコマンド処理部181に通知する。
 給紙段が満載である場合には、給紙段の残量情報は”100%”となる。また、給紙段が完全に空である場合には、給紙段の残量情報は”0%”となる。また、排紙段が満載である場合には、排紙段の容量残量情報は”0%”となり、排紙段が完全に空である場合には、排紙段の容量残量情報は”100%”となる。
 給紙段状態又は排紙段状態が「取得成功」である場合、マイコンコマンド処理部181は、レスポンスデータを給紙段又は排紙段の残量情報に基づいて決定する。例えば、給紙段又は排紙段の残量情報が”100%”の場合、マイコンコマンド処理部181はレスポンスデータを「100%」と決定する。また、給紙段又は排紙段の残量情報が”0%”の場合、マイコンコマンド処理部181はレスポンスデータを「0%」と決定する。
 ステップS320において、リクエストデータが「?SCREENID」である場合には、マイコンコマンド処理部181は、画像形成装置102のUIパネル111の表示部に表示されている画面のID(以下、「表示画面ID」)に基づいてレスポンスデータを決定する(ステップS329)。
 ここでは、マイコンコマンド処理部181は、ステータス管理部162に対して表示画面IDの取得を要求する。ステータス管理部162は、画像形成装置102において表示されている画面の表示画面IDをマイコンコマンド処理部181に通知する。例えば、表示部において「手差しを閉めます」の画面を表示されている場合には、ステータス管理部162は、表示画面IDを「CLOSEMPTRAY」とする。マイコンコマンド処理部181は、レスポンスデータを画面IDに応じて決定する。
 ステップS320において、リクエストデータが「?MEMxxxxx」である場合には、マイコンコマンド処理部181は、画像形成装置102の不揮発メモリ読込処理の実行結果に基づいてレスポンスデータを決定する(ステップS330)。
 ここでは、マイコンコマンド処理部181は、ステータス管理部162に対して不揮発メモリ読込処理の実行を要求する。ここで、「xxxxx」は不揮発メモリの論理的なアドレス(以下、「論理アドレス」)である。例えば、32キロビットの不揮発メモリの場合、「xxxxx」には「00000」から「32767」までのいずれかが指定され得る。例えば、不揮発メモリの論理アドレス”0x1000”からデータを読み込む場合には、リクエストデータは「?MEM01000」となる。
 画像形成装置102において指定された論理アドレスが値域外である場合には、ステータス管理部162は、不揮発メモリ読込処理の実行結果を「読込失敗」とする。不揮発メモリ読込処理の実行結果が「読込失敗」である場合、マイコンコマンド処理部181はレスポンスデータを「NG」に決定する。
 画像形成装置102において指定された論理アドレスが値域内である場合には、ステータス管理部162は、不揮発メモリ読込処理を実行して得られた読込結果をマイコンコマンド処理部181に通知する。マイコンコマンド処理部181は、レスポンスデータを、得られた読込結果に決定する。
 ここで、読込結果に決定されたレスポンスデータは16進数で表される。例えば、得られた読込結果が十進数で”20”である場合には、レスポンスデータは”14”となる。
 ステップS320において、リクエストデータが「!MEMxxxxxyy」である場合には、マイコンコマンド処理部181は、画像形成装置102の不揮発メモリ書込処理の実行結果に基づいてレスポンスデータを決定する(ステップS331)。
 ここでは、マイコンコマンド処理部181は、ステータス管理部162に対して不揮発メモリ書込処理の実行を要求する。ここで、「xxxxx」は不揮発メモリの論理的なアドレス(以下、「論理アドレス」)である。例えば、32キロビットの不揮発メモリの場合、「xxxxx」には「00000」から32767までのいずれかが指定され得る。また、「yy」は不揮発メモリに書き込まれるべき書込データを16進数で表したものである。例えば、論理アドレス”0x1000”に”0xAB”を記録する場合には、リクエストデータは「!MEM01000AB」となる。
 画像形成装置102において指定された論理アドレスが値域外である場合又は「yy」が不正なデータである場合には、ステータス管理部162は、不揮発メモリ書込処理の実行結果として「書込失敗」マイコンコマンド処理部181に通知する。不揮発メモリ書込処理の実行結果が「書込失敗」である場合、マイコンコマンド処理部181はレスポンスデータを「NG」に決定する。
 画像形成装置102において指定された論理アドレスが値域内である場合には、ステータス管理部162は、不揮発メモリ書込処理を実行して不揮発メモリ書込処理の実行結果として「書込成功」をマイコンコマンド処理部181に通知する。不揮発メモリ書込処理の実行結果が「書込成功」である場合、マイコンコマンド処理部181はレスポンスデータを「OK」に決定する。
 ステップS320において、リクエストデータが「!LOGaaaaabbbbb」である場合には、マイコンコマンド処理部181は、画像形成装置102のログ記録処理の実行結果に基づいてレスポンスデータを決定する(ステップS332)。
 ここでは、マイコンコマンド処理部181は、ステータス管理部162に対してログ記録処理の実行を要求する。ここで、「aaaaa」はログ種別を表す。また、「bbbbb」はログデータを表す。例えば、「二酸化炭素濃度が400ppmである」と記録する場合には、リクエストデータは「!LOGCO2__00400」となる。
 画像形成装置102において指定されたログデータが不正なデータである場合には、ステータス管理部162は、ログ記録処理の実行結果として「書込失敗」をマイコンコマンド処理部181に通知する。ログ記録処理の実行結果が「書込失敗」である場合、マイコンコマンド処理部181はレスポンスデータを「NG」に決定する。
 画像形成装置102において指定されたログデータが不正なデータではない場合には、ステータス管理部162は、ログ種別と現在時刻とを関連付けてログデータを記録する。そして、ステータス管理部162は、ログ記録処理の実行結果をとして「記録成功」をマイコンコマンド処理部181に通知する。ログ記録処理の実行結果が「記録成功」である場合、マイコンコマンド処理部181はレスポンスデータを「OK」に決定する。
 ステップS321~S332のいずれかの処理の後、マイコンコマンド処理部181は、決定したレスポンスデータをマイコンデバイス103に送信する(ステップS399)。この際、レスポンスデータにはターミネータとなる文字を追加するのが望ましい。そして、マイコンコマンド処理部181は、処理をステップS311に戻す。
 以上の処理によって、画像形成装置102は、マイコンデバイス103から受信したリクエストデータに基づいて画像形成装置102を構成する各モジュールの状態取得および状態変更を行って、その結果をレスポンスデータとしてマイコンデバイス103に送信する。
 図10は、図4に示すコマンド通信部261が実行するコマンド通信処理を説明するためのフローチャートである。
 なお、コマンド通信処理は、マイコンデバイス制御部251がコマンド通信部261にリクエストデータを送信してから、レスポンスデータを受信するまでの処理である。図10に示すコマンド通信処理が実行されることで、マイコンデバイス制御部251は、画像形成装置102から状態を取得する等の処理を行う。
 まず、マイコンデバイス制御部251がコマンド通信部261にリクエストデータを送信する。コマンド通信部261は、シリアル通信部262から書込可能文字数を取得する(ステップS401)。そして、コマンド通信部261は、取得した書込可能文字数がリクエストデータの文字数以上であるか否かを判定する(ステップS402)。
 書込可能文字数がリクエストデータの文字数未満である場合(ステップS402において、NO)、コマンド通信部261は所定の時間(例えば、10ミリ秒)待機するステップ(ステップS403)。そして、コマンド通信部261は、処理をステップS401に戻す。
 一方、書込可能文字数がリクエストデータの文字数以上である場合(ステップS402において、YES)、コマンド通信部261は、シリアル通信部262に、受け取ったリクエストデータとリクエストデータの送信要求とを送信する。シリアル通信部262は、USBシリアル変換チップ202に当該リクエストデータを送信する(ステップS404)。USBシリアル変換チップ202は、画像形成装置102の拡張I/F132および外部I/F制御部182を介して、マイコンコマンド制御部181に当該リクエストデータを送信する。
 その後、マイコンコマンド制御部181は図5Aおよび図5Bで説明したマイコンコマンド処理を実行し、レスポンスデータを取得する。そして、マイコンコマンド制御部181は、外部I/F制御部182および拡張I/F132を介して、取得したレスポンスデータをシリアル通信部262に送信する。
 ここで、コマンド通信部261は、作成しようとするレスポンスデータを空で初期化する(ステップS411)。そして、コマンド通信部261は、シリアル通信部262から送信されたレスポンスデータから文字を1文字読み込む(ステップS412)。
 コマンド通信部261は、読み込んだ文字がターミネータ文字であるか否かを判定する(ステップS413)。なお、例えば、キャレッジリターンコードやラインフィードコードをターミネータ文字として扱ってもよい。
 読み込んだ文字がターミネータ文字ではない場合(ステップS413において、NO)、コマンド通信部261は、作成中のレスポンスデータに読み込んだ文字を追加する(ステップS414)。そして、コマンド通信部261は処理をステップS412に戻して、次の1文字を読み込む。
 読み込んだ文字がターミネータ文字である場合(ステップS413において、YES)、コマンド通信部261は、作成中のレスポンスデータに終端文字を追加して、作成されたレスポンスデータをマイコンデバイス制御部251に通知する(ステップS421)。そして、コマンド通信部261はコマンド通信処理を終了する。
 なお、ここでは説明の簡略化ため、例外的な処理については説明を省略した。例えば、ウォッチドックタイマーを用いて、データの送受信が所定の時間に行われない場合にはマイコンデバイス103が再起動されように構成してもよい。
 また、マイコンデバイス制御部251は、ペリフェラルパーツ制御部271およびペリフェラルパーツ通信部272を介して、ペリフェラルパーツ290から状態を取得し、さらには当該状態を設定する。この設定はペリフェラルパーツとの接続手段によって異なり、他の手段を用いても本発明を実施できる。
 [第1の実施形態]
 画像形成装置102でエラーが発生した場合に、エラー復旧に必要な対応を、音声でユーザーに報知するエラーリカバリメッセージ発話処理について説明する。
 図11Aおよび図11Bは、図4に示すマイコンデバイス制御部251が実行するエラーリカバリメッセージ発話処理を説明するためのフローチャートである。
 マイコンデバイス制御部251は、距離センサー211に初期化コマンドを送信して、距離センサー211を初期化する(ステップS501)。
 続いて、マイコンデバイス制御部251は、音声合成チップ212へ初期化コマンドを送信して、音声合成チップ212を初期化する(ステップS502)。
 マイコンデバイス制御部251は、距離センサー211から測定結果を距離センサー値として取得する(ステップS511)。距離センサー値として、センチメートル単位などで表される値が用いられ、例えば、距離センサー211の前に障害物のない空間がどれだけあるかを示す。
 マイコンデバイス制御部251は、距離センサー値が所定の閾値未満であるか否かを判定する(ステップS512)。例えば、閾値が40センチメートルである場合、マイコンデバイス制御部215は、距離センサー211から40センチメートル以内にユーザー(障害物)が存在する場合に、ユーザーが近づいたものと判定する。
 距離センサー値が閾値以上の場合(ステップS512において、NO)、マイコンデバイス制御部251は所定の時間(例えば、1000ミリ秒)待機する(ステップS599)。そして、マイコンデバイス制御部251は、処理をステップS511に戻す。これによって、ユーザーが接近していないと判定された場合には、所定の時間待機した後、マイコンデバイス制御部215は再度ユーザーの接近を判定する。
 距離センサー値が閾値未満である場合(ステップS512において、YES)、マイコンデバイス制御部251は画像形成装置102のエラー状態を取得する(ステップS513)。ここでは、マイコンデバイス制御部251は、取得したレスポンスデータをエラー状態として用いる。
 マイコンデバイス制御部251は、受信したレスポンスデータを参照してエラー状態を判定する(ステップS514)。ステップS514において、エラー状態が「NONE」である場合には、マイコンデバイス制御部251は処理をステップS599に進める。つまり、エラーが発生していない場合は処理を行う必要がないので、マイコンデバイス制御部251はユーザーが接近するまで待機する。
 ステップS514において、エラー状態が「JAM」、「COVER」、又は「CRG」の場合、マイコンデバイス制御部251は、画像形成装置102から表示画面IDを取得する(ステップS515)。マイコンデバイス制御部251は、受信したレスポンスデータを参照して表示画面IDを取得し、取得した表示画面IDを前回表示画面IDとして記録する(ステップS516)。さらに、マイコンデバイス制御部251は、ステップS513で取得したエラー状態を前回エラー状態として記録する(ステップS517)。
 続いて、マイコンデバイス制御部251は、取得した表示画面IDに基づいて、音声合成チップ212に通知する発話コマンドを生成する(ステップS521)。
 図12は、発話コマンドの一例を示す図である。
 例えば、表示画面IDがCLOSEMPTRAYである場合、マイコンデバイス制御部251は、「tesashi wo simemasu」を、音声合成チップ212に発話コマンドとして通知する。
 当該実施形態においては、音声合成チップ212に対してアルファベットを組み合わせて生成した文字列を発話コマンドとして送信する例を示す。なお、例えば、よく使用する文言を再生番号と関連付けて音声合成チップ212に予め記憶させて、発話コマンドとして再生番号のみを通知するようにしてもよい。
 続いて、マイコンデバイス制御部251は、生成した発話コマンドを音声合成チップ212に通知する(ステップS522)。音声合成チップ212は、当該発話コマンドに基づいて音声合成および音声出力を開始する。例えば、音声合成チップ212は、発話コマンドとして「tesashi wo simemasu」が通知されると、「close manual paper feeding tray」に相当する音声を合成して再生する。
 マイコンデバイス制御部251は、距離センサー211から距離センサー値を取得する(ステップS523)。ステップS523の処理は、ステップS511の処理と同様の処理である。
 マイコンデバイス制御部251は、距離センサー値が所定の閾値未満であるか否かを判定する(ステップS524)。距離センサー値が閾値以上である場合(ステップS524において、NO)、マイコンデバイス制御部251は、音声合成チップ212に発話中止コマンドを送信する(ステップS551)。そして、マイコンデバイス制御部251は、処理をステップS599に進める。これによって、ユーザーが画像形成装置102から離れた場合には、発話処理が中止される。
 距離センサー値が閾値未満である場合(ステップS524において、YES)、マイコンデバイス制御部251は、音声合成チップ212から発話ステータスを取得する(ステップS525)。マイコンデバイス制御部251は、発話ステータスが発話中であるか否かを判定する(ステップS526)。
 発話ステータスが発話中でない場合(ステップS526において、YES)、つまり、発話が完了した場合、マイコンデバイス制御部251は処理をステップS599に進める。これによって、先に送信した発話コマンドに応じた音声合成処理および音声出力処理が完了すると、所定の時間待機して同様の処理が繰り返される。
 発話ステータスが発話中である場合(ステップS526において、YES)、マイコンデバイス制御部251は、画像形成装置102から表示画面IDを取得する(ステップS531)。ステップS531の処理は、ステップS515の処理と同様の処理である。さらに、マイコンデバイス制御部251は、画像形成装置102のエラー状態を取得する(ステップS532)。ステップS532の処理は、ステップS513の処理と同様の処理である。これによって、マイコンデバイス制御部251は、最新の表示画面IDおよび最新のエラー状態を取得する。
 続いて、マイコンデバイス制御部251は、記録された前回表示画面ID又は前回エラー状態と、取得した最新の表示画面ID又は最新のエラー状態とを比較して、画像形成装置102の表示画面ID又はエラー状態が変化したか否かを判定する(ステップS533)。
 表示画面ID又はエラー状態が変化していない場合(ステップS533において、NO)、マイコンデバイス制御部251は所定の時間(例えば、50ミリ秒)待機する(ステップS534)。そして、マイコンデバイス制御部251は、処理をステップS523に戻す。これによって、マイコンデバイス制御部251は、例えばユーザーが接近せず、表示画面ID又はエラー状態に変化がない間は発話が完了するまで待機する。
 表示画面ID又はエラー状態に変化がある場合(ステップS533において、YES)、マイコンデバイス制御部251は、前回表示画面IDに代えて取得した表示画面IDを表示画面IDを記録して、表示画面IDを更新する(ステップS535)。さらに、マイコンデバイス制御部251は、前回エラー状態に代えて取得した最新のエラー状態を記録して、エラー状態を更新する(ステップS536)。
 続いて、マイコンデバイス制御部251は、音声合成チップ212に発話中止コマンドを送信する(ステップS541)。そして、マイコンデバイス制御部251は、エラー状態を判定する(ステップS542)。
 ステップS542において、エラー状態が「NONE」である場合、マイコンデバイス制御部251は、処理をステップS599に進める。つまり、マイコンデバイス制御部251は、再度ユーザーが接近するまで待機する。
 ステップS542において、エラー状態が「JAM」、「COVER」、又は「CRG」である場合、マイコンデバイス制御部251は、処理をステップS521に戻す。つまり、マイコンデバイス制御部251は、最新の表示画面ID又は最新のエラー状態に応じて、新しい発話コマンドを生成して音声合成チップ212に送信する。
 図13は、図11Aおよび図11Bで説明したエラーリカバリメッセージ発話処理における動作の一例を示す図である。
 図示の例では、画像形成装置102には、エラーリカバリメッセージ発話処理を行うためのマイコンデバイス210が装着されている。マイコンデバイス210は、画像形成装置102の前方エリア601に人(ユーザー)が近づいたか否かを、距離センサー211によって判定する。人が近づいたと判定すると、マイコンデバイス210は、画像形成装置102の操作パネル111に表示された表示内容に応じて、音声合成チップ212に発話コマンドを送信する。
 音声合成チップ212は、受信した発話コマンドに応じた音声を出力して、操作パネル111に表示された表示内容をユーザーに報知する。
 第1の実施形態では、距離センサー211や音声合成チップ212を搭載したマイコンデバイス210を用いて説明したが、本発明はこれに限定されるものではない。例えば、第1の実施形態においては、超音波を用いた距離センサー211を用いて人の接近を検知したが、例えば、赤外線を用いた人感センサーを用いて人の接近を検知してもよい。
 さらに、第1の実施形態においては、ユーザーに情報を報知する手段として、音声合成チップ212を用いたが、フラッシュメモリおよび音声コーデックチップを組み合わせて、録音済み音声を再生してもよい。さらには、画像形成装置102の不揮発メモリにアクセスして、必要に応じて画像形成装置102から録音済み音声をダウンロードしてもよい。
 ここで、ペリフェラルパーツの構成を変更する場合、マイコンデバイス210は、それぞれのペリフェラルパーツに対応するための制御コマンド対応が必要となる。しかし、画像形成装置102は新規制御コマンドへの対応は必要はない。つまり、画像形成装置102とマイコンデバイス210とを、特にペリフェラルパーツ制御に関して、独立した関係を実現することができる。これによって、画像形成装置102に変更を加えることなく、マイコンデバイス210に変更を加えるだけで、新たなペリフェラルパーツを柔軟にサポートすることが可能となる。その結果、画像形成装置102は、ペリフェラルパーツ間の制御コマンドの互換性を考慮する必要が無くなる。更には、部品の長期安定供給性に関する課題、利用可能なペリフェラルパーツが限定されるという課題についても解決できる。
 以上、第1の実施形態では、画像形成装置102にペリフェラルパーツをオプション搭載する事で、画像形成装置102の周辺の状況を取得したり、画像形成装置102の状態を音声でユーザーに報知できることを示した。これにより、画像形成装置102だけでは取得できなかった周辺の状況も考慮して画像形成装置102を制御することができる。また、画像形成装置102には備えられていなかった、音声という新たな手段を用いて、ユーザーに情報を報知できる。
 [第2の実施形態]
 図14Aおよび図14Bは、図4に示すマイコンデバイス制御部251が実行する消耗品残量表示処理を説明するためのフローチャートである。
 マイコンデバイス制御部251は、例えばLCDパネル221のコントラスト調整およびバックライト指定などを行って、LCDパネル221を初期化する(ステップS701)。
 次に、マイコンデバイス制御部251は、スイッチ222を初期化する(ステップS702)。そして、マイコンデバイス制御部251は、全ての前回カートリッジ状態を「未取得」にしてカートリッジ状態を初期化する(ステップS703)。前回カートリッジ状態とは、画像形成装置102から取得したカートリッジ状態の最近の結果である。なお、画像形成装置102が複数のカートリッジが装着可能であれば、マイコンデバイス制御部251は、カートリッジ毎に前回カートリッジ状態を記録する。画像形成装置102の起動直後は、カートリッジ状態は初期化されており、前回カートリッジ状態は「未取得」になっている。
 マイコンデバイス制御部251は、全ての前回給紙段状態を「未取得」にして給紙段状態を初期化する(ステップS704)。前回給紙段状態とは、画像形成装置102から取得した給紙段状態の最近の結果である。なお、画像形成装置102が複数の給紙段が利用可能であれば、マイコンデバイス制御部251は、給紙段毎に前回給紙段状態を記録する。画像形成装置102の起動直後は、給紙段状態は初期化されており、前回給紙段状態は「未取得」になっている。
 続いて、マイコンデバイス制御部251は、画面モードをカートリッジ情報に応じて初期化する(ステップS705)。画面モードとは、マイコンデバイス制御部251がLCDパネル221にいずれの消耗品の残量を表示するのかを示す属性値である。画面モードがカートリッジ情報を示すモード(画面モードが「カートリッジ情報」)であれば、マイコンデバイス制御部251はLCDパネル221にカートリッジ情報を表示する。画面モードが給紙段情報を示すモード(画面モードが「給紙段情報」)であれば、マイコンデバイス制御部251はLCDパネル221に給紙段情報を表示する。
 次に、マイコンデバイス制御部251は、画面モードを判定する(ステップS711)。ステップS711において、画面モードが「カートリッジ情報」である場合、マイコンデバイス制御部251は画像形成装置102から最新のカートリッジ状態を取得する(ステップS712)。
 次に、マイコンデバイス制御部251は、前回カートリッジ状態とステップS712で取得した最新のカートリッジ状態とを比較する(ステップS713)。そして、マイコンデバイス制御部251は比較結果に応じてカートリッジ状態が変化したか否かを判定する(ステップS714)。
 カートリッジ状態が変化した場合(ステップS714において、YES)、マイコンデバイス制御部251は、最新のカートリッジ状態に応じた表示画面を生成し、生成した表示画面をLCDパネル221に送信する。マイコンデバイス制御部251は、LCDパネル221に生成した表示画面を表示してカートリッジ状態を示す(ステップS715)。
 続いて、マイコンデバイス制御部251は、前回カートリッジ状態に代えて最新のカートリッジ状態を記録して、カートリッジ状態を更新する(ステップS716)。そして、マイコンデバイス制御部251は処理をステップS731に進める。
 ステップS714において、カートリッジ状態が変化してない場合(ステップS714おいて、NO)、マイコンデバイス制御部251はLCDパネル221の表示内容を変化させることなく、処理をステップS731に進める。
 ステップS711において、画面モードが「給紙段情報」である場合、マイコンデバイス制御部251は、画像形成装置102から最新の給紙段状態を取得する(ステップS722)。そして、マイコンデバイス制御部251は、前回給紙段状態とステップS722で取得した最新の給紙段状態とを比較する(ステップS723)。マイコンデバイス制御部251は、比較結果に応じて給紙段状態が変化したか否かを判定する(ステップS724)。
 給紙段状態が変化した場合(ステップS724において、YES)、マイコンデバイス制御部251は、給紙段状態に応じた表示画面を生成し、生成した表示画面をLCDパネル221に送信する。マイコンデバイス制御部251は、LCDパネル221に生成した表示画面を表示して給紙段状態を示す(ステップS725)。
 続いて、マイコンデバイス制御部251は、前回給紙段状態に代えて最新の給紙段状態を記録して、給紙段状態を更新する(ステップS725)。そして、マイコンデバイス制御部251は処理をステップS731に進める。
 ステップS724において、給紙段状態が変化していない場合は(ステップS724において、NO)、マイコンデバイス制御部251はLCDパネル221の表示内容を変化させることなく、処理をステップS731に進める。
 このようにして、マイコンデバイス制御部251は、LCDパネル221に最新のカートリッジ状態又は最新の給紙段状態を表示する。
 続いて、マイコンデバイス制御部251は、経過時間を初期化して”0”にする(ステップS731)。なお、経過時間とは、スイッチ222の状態取得を開始してから経過した時間をいう。
 続いて、マイコンデバイス制御部251は、スイッチ222からイベントを取得する(ステップS732)。そして、マイコンデバイス制御部251はイベントを判定する(ステップS733)。
 ステップS733において、イベントが「RISING」である場合、マイコンデバイス制御部251は画面モードを判定する(ステップS734)。ステップS734において、画面モードが給紙段情報を表示するモード(画面モードが「給紙段情報」)であると判定された場合、マイコンデバイス制御部251は画面モードを、カートリッジ情報を表示するモードである「カートリッジ情報」に変更する(ステップS735)。そして、マイコンデバイス制御部251は、前回カートリッジ状態を「未取得」にしてカートリッジ状態を初期化する(ステップS736)。その後、マイコンデバイス制御部251は、処理をステップS711に戻す。
 ステップS734において、画面モードがカートリッジ情報を表示するモード(画面モードが「カートリッジ情報」)であると判定された場合、マイコンデバイス制御部251は画面モードを、給紙段情報を表示するモードである「給紙段情報」に変更する(ステップS737)。そして、マイコンデバイス制御部251は、前回給紙段状態を「未取得」にして給紙段状態を初期化する(ステップS738)。その後、マイコンデバイス制御部251は、処理をステップS711に戻す。
 このようにして、マイコンデバイス制御部251はスイッチ222から取得したイベントに基づいて、LCDパネル221に表示する表示内容を切り替える。
 ステップS733において、イベントが「FALLING」、「HIGH」、又は「LOW」である場合、マイコンデバイス制御部251は所定の時間(例えば、10ミリ秒)待機する(ステップS741)。その後、マイコンデバイス制御部251は、経過時間に待機した時間を加算する(ステップS742)。
 続いて、マイコンデバイス制御部251は、経過時間が所定の閾値(例えば、1000ミリ秒)を超えたか否かを判定する(ステップS743)。
 経過時間が閾値を超えている場合(ステップS743において、YES)、マイコンデバイス制御部251は、処理をステップS711に戻す。一方、経過時間が閾値以下である場合(ステップS743において、NO)、マイコンデバイス制御部251は、処理をステップS732に戻す。
 図15Aおよび図15Bは、図14Aおよび図14Bで説明した消耗品残量表示処理における動作の一例を示す図である。図15Aはカートリッジ情報を表示する際のマイコンデバイスの表示動作の一例を示す図であり、図15Bは給紙段情報を表示する際のマイコンデバイスの表示動作の一例を示す図である。
 図15Aにおいて、LCDパネル221には、各色のカートリッジ情報が表示される。ここでは、カートリッジの寿命残量として、トナー残量がバーで表示されるとともにパーセント表記される。
 図15Bにおいて、LCDパネル221には、各給紙段の用紙残量が表示される。ここでは、各給紙段の用紙残量がバーで表示されるとともにパーセント表記される。
 マイコンデバイス220に備えられたLCDパネル221にカートリッジ情報が表示されている際にスイッチ222が押下されると、マイコンデバイス220はLCDパネル221に給紙段情報を表示する。また、LCDパネル221に給紙段情報が表示されている際にスイッチ222が押下されると、マイコンデバイス220はLCDパネル221にカートリッジ情報を表示する。
 ここでは、画面モードが「カートリッジ情報」である場合を説明したが、例えば、画像形成装置102においてトナードラム分離型カートリッジを用いる場合、画面モードを「トナーカートリッジ情報」と「ドラムカートリッジ情報」に区別して、消耗品残量表示処理を行ってもよい。これによって、トナーカートリッジ情報とドラムカートリッジ情報とを別個の画面に表示して、各消耗品に係る情報をトグル表示することができる。同様に、例えば、画像形成装置102が給紙段を4段以上有する場合に、給紙段情報を、第1~第4の給紙段の情報と第5の給紙段以降の情報とを別個の画面に表示して、各消耗品に係る情報をトグル表示することができる。
 ここでは、消耗品残量を単純に表示する例を示したが、例えば、カートリッジ又は給紙段でエラーが発生した場合には、エラー内容又はアイコンをLCDパネル221に表示してもよい。
 なお、ここでは、図示のように、5行表示可能な液晶パネルをLCDパネル221として用いたが、6行以上の表示可能な液晶パネルをLCDパネル221として用いてもよい。さらに、画面の切り替えに物理的な入力手段であるスイッチ222を用いるようにしたが、タッチパネルをタッチ操作する論理的なスイッチを用いてもよい。
 以上、第2の実施形態では、画像形成装置102にペリフェラルパーツをオプション搭載することで、画像形成装置102が元々備えていた表示手段又は入力手段とは異なる、新たな表示手段又は入力手段を設けることが可能であることを示した。これにより、画像形成装置102が元々備えていた表示手段では表現できなかった情報も、利用者に提供できる。また、新たな入力手段を設けることで、ユーザー操作を簡便化できる。
 [第3の実施形態]
 図16Aおよび図16Bは、図4に示すマイコンデバイス制御部251が実行する電源制御補助処理を説明するためのフローチャートである。
 マイコンデバイス制御部251は、例えばセンサー感度などの制御パラメータを人感センサー232に送って、人感センサー232を初期化する(ステップS901)。
 次に、マイコンデバイス制御部251は、例えば、センサー感度などの制御パラメータを照度センサー231に送って、照度センサー231を初期化する(ステップS902)。
 マイコンデバイス制御部251は、人感センサー232から人検知結果を取得する(ステップS911)。例えば、画像形成装置102の周囲に人(ユーザー)が存在する場合には、人検知結果は「HIGH」となる。一方、画像形成装置102の周囲に人がいない場合には、人検知結果は「LOW」となる。
 続いて、マイコンデバイス制御部251は、画像形成装置102から電源状態を取得する(ステップS912)。さらに、マイコンデバイス制御部251は、画像形成装置102からジョブ実行状態を取得する(ステップS913)。
 次に、マイコンデバイス制御部251は、画像形成装置102からスプールジョブ状態を取得する(ステップS914)。さらに、マイコンデバイス制御部251は、照度センサー231から照度検出結果として照度値を取得する(ステップS915)。
 そして、マイコンデバイス制御部251は、取得した照度値に基づいて移動平均照度値を算出する(ステップS916)。マイコンデバイス制御部251は、過去に取得した複数の照度値を単純平均することによって移動平均照度値を求める。なお、過去に取得した複数の照度値に所定の重み付けを行って、その平均値(重みづけ平均値)を移動平均照度値として用いてもよい。
 続いて、マイコンデバイス制御部251は、求めた移動平均照度値が所定の閾値を超えているか否かを判定する(ステップS921)。なお、上記の閾値は、例えば、画像形成装置102が設置された環境において、照明が点灯状態であるか否かを判別するための閾値である。
 移動平均照度値が閾値以下である(ステップS921において、NO)、つまり、画像形成装置102が環境光が暗い状態にあると判定した場合には、マイコンデバイス制御部251は人検知結果を判定する(ステップS931)。
 ステップS931において、人検知結果が「HIGH」である場合、つまり、画像形成装置102の周囲に人がいる場合、マイコンデバイス制御部251は画像形成装置102の電源状態を判定する(ステップS932)。
 ステップS932において、電源状態が「AWAKE」である場合、マイコンデバイス制御251は、画像形成装置102に対してスリープ状態からの復帰を指示する必要がないと判定して、所定の時間(例えば、1000ミリ秒)待機する(ステップS999)。そして、マイコンデバイス制御251は、処理をステップS911に戻す。
 ステップS932において、電源状態が「SLEEP」である場合、マイコンデバイス制御部251はスプールジョブ状態を判定する(ステップS933)。ステップS933において、スプールジョブ状態が「STORED」の場合、マイコンデバイス制御部251は画像形成装置102の電源状態をスリープ状態から復帰させる(ステップS934)。つまり、画像形成装置102がスリープ状態で、かつスプールジョブがある場合に、画像形成装置102の周囲に人が存在すると、マイコンデバイス制御部251はユーザーがこれからスプールジョブを印刷する可能性があると判定する。そして、マイコンデバイス制御部251は画像形成装置102をスリープ状態から復帰させる。その後、マイコンデバイス制御部251は処理をステップS999に進める。
 ステップS933において、画像形成装置102のスプールジョブ状態が「NONE」である場合、マイコンデバイス制御251はユーザーがこれからスプールジョブを印刷する可能性がないと判定して、処理をステップS999に進める。
 ステップS931において、人検知結果が「LOW」である場合、つまり、画像形成装置102の周囲に人がいない場合、マイコンデバイス制御部251は、画像形成装置102の電源状態を判定する(ステップS941)。
 ステップS941において、電源状態が「AWAKE」である場合、マイコンデバイス制御部251は、ジョブ実行状態を判定する(ステップS942)。
 ステップS942において、ジョブ実行状態が「IDLE」である場合、マイコンデバイス制御部251は、画像形成装置102の電源状態をスリープ状態に移行させる(ステップS943)。つまり、マイコンデバイス制御部251は、画像形成などが行われる可能性が低い状態にあると判定して、電源状態をスリープ状態に移行させ、画像形成装置102の消費電力を削減する。その後、マイコンデバイス制御部251は、処理をステップS999に進める。
 ステップS942において、ジョブ実行状態が「RUNNING」又は「ERROR」である場合には、マイコンデバイス制御部251は、画像形成装置102が操作中又は動作中であると判定する。よって、マイコンデバイス制御部251は、画像形成装置102において進行中の処理を妨害しないため、処理をステップS999に進める。
 ステップS941において、電源状態が「SLEEP」である場合、マイコンデバイス制御部251は、画像形成装置102に対してスリープ状態への移行を指示する必要がないと判定して、処理をステップS999に進める。
 ステップS921において、移動平均照度値が閾値を超えている(ステップS921において、YES)、つまり、画像形成装置102が環境光が明るい状態にあると判定した場合には、マイコンデバイス制御部251は人検知結果を判定する(ステップS951)。
 ステップS951において、人検知結果が「HIGH」である場合、つまり、画像形成装置102の周囲に人がいる場合、マイコンデバイス制御部251は、画像形成装置102の電源状態を判定する(ステップS952)。
 ステップS952において、電源状態が「AWAKE」である場合、マイコンデバイス制御部251は、画像形成装置102に対してスリープ状態からの復帰を指示する必要がないと判定して、処理をステップS999に進める。
 ステップS952において、電源状態が「SLEEP」である場合、マイコンデバイス制御部251は、画像形成装置102をスリープ状態から復帰させる(ステップS953)。そして、マイコンデバイス制御部251は処理をステップS999に進める。
 ステップS951において、人検知結果が「LOW」である場合、つまり、画像形成装置102の周囲に人がいない場合、マイコンデバイス制御部251は、画像形成装置102の電源状態を判定する(ステップS961)。
 ステップS961において、電源状態が「AWAKE」である場合、マイコンデバイス制御部251は、ジョブ実行状態を判定する(ステップS962)。
 ステップS962において、ジョブ実行状態が「IDLE」である場合、マイコンデバイス制御部251は、画像形成装置102の電源状態をスリープ状態に移行させる(ステップS963)。そして、マイコンデバイス制御部251は処理をステップS999に進める。
 ステップS962において、ジョブ実行状態が「RUNNING」又は「ERROR」である場合、マイコンデバイス制御251は、画像形成装置102が操作中又は動作中であると判定する。そして、マイコンデバイス制御部251は、画像形成装置102において進行中の処理を妨害しないようにするため、処理をステップS999に進める。
 ステップS961において、電源状態が「SLEEP」である場合、マイコンデバイス制御251は、画像形成装置102に対してスリープ移行を指示する必要がないと判定して、処理をステップS999に進める。
 このように、第3の実施形態では、環境光が暗い状態において画像形成装置102に人が接近した場合には、スプールジョブ状態が存在している場合に画像形成装置102はスリープ状態から復帰する。また、環境光が暗い状態において画像形成装置102に人が接近していない場合には、ジョブ実行状態が「IDLE」である場合に、画像形成装置102はスリープ状態に移行する。
 環境光が明るい状態において画像形成装置102に人が接近した場合、画像形成装置102はスリープ状態から復帰する。また、環境光が明るい状態において画像形成装置102に人が接近していない場合には、ジョブ実行状態が「IDLE」である場合に、画像形成装置102はスリープ状態に移行する。
 図17は、図16Aおよび図16Bで説明した電源制御補助処理における処理結果を示す。
 図17に示すように、第3の実施形態による処理は、照度値、人検知結果、電源状態、スプールジョブの有無、およびジョブ実行状態に基づいて行われる。
 このように、第3の実施形態では、マイコンデバイス制御部251は照度値および人検知結果に基づいて、画像形成装置102の電源状態を制御することができる。さらに、マイコンデバイス制御部251はスプールジョブの有無およびジョブ実行状態などの画像形成装置102自体の状態を取得して画像形成装置102の電源状態の制御の要否を判定する。
 以上、第3の実施形態では、画像形成装置102にペリフェラルパーツを搭載することで、画像形成装置102から報知される情報と、ペリフェラルパーツから報知される種々の情報とを組み合わせて判断し、その結果、画像形成装置102を制御する例を示した。これにより、画像形成装置102だけでは取得できなかった画像形成装置102の周辺の状況も考慮して画像形成装置102を制御することができる。
 [第4の実施形態]
 図18は、図4に示すマイコンデバイス制御部251が実行する周辺環境ロギング処理を説明するためのフローチャートである。
 マイコンデバイス制御部251は、CO/COセンサー241を初期化する(ステップS1001)。さらに、マイコンデバイス制御部251は、温度/湿度センサー242を初期化する(ステップS1002)。
 続いて、マイコンデバイス制御部251は、各種環境値を取得する。すなわち、マイコンデバイス制御部251は、CO/COセンサー241から現在のCO濃度およびCO濃度を取得する(ステップS1011)。さらに、マイコンデバイス制御部251は、温度/湿度センサー242から現在の温度および湿度を取得する(ステップS1012)。
 次に、マイコンデバイス制御部251は、取得した環境値(CO濃度、CO濃度、温度、および湿度)を画像形成装置102に送ると共に、取得した環境値をログデータとして保存するためのログデータ保存要求を画像形成装置102に送る(ステップS1013)。その後、マイコンデバイス制御部251は、所定の時間(例えば、60秒)待機する(ステップS1099)。そして、マイコンデバイス制御部251は、処理をステップS1011に戻す。
 なお、ここでは、マイコンデバイス制御部251からのログデータ保存要求に応答して、画像形成装置102は、画像形成装置102に係る状態を個別にログデータとして保存することが望ましい。例えば、画像形成装置102がおいてスリープ状態に移行した時刻、画像形成装置102がスリープ状態から復帰した時刻などの情報を記録することによって、画像形成装置102の電源状態が環境に及ぼす影響を検知できる可能性がある。
 また、画像形成装置102における用紙の搬送に係るエラーを記録することによって、当該エラーの発生と温度および湿度との因果関係および相関関係を推定できる可能性がある。
 このように、第4の実施形態によると、画像形成装置102に標準搭載されていないペリフェラルパーツを搭載することで、画像形成装置102だけでは取得できなかった周囲の環境値(CO濃度、CO濃度、温度、湿度など)を取得することができる。これら環境値は、画像形成装置102で動作するアプリケーションによって用紙に印刷するようにしてもよい。また、画像形成装置102のNIC124を介して、データ処理装置101に環境値を送信してもよい。その他、WEBページで表示するなど多様な処理を行うことができる。
 また、マイコンデバイス103は、マイコンデバイス103に備えられていないレポート印刷機能およびネットワーク機能を、画像形成装置102を介して間接的に利用することができ、マイコンデバイス103にとっても有益である。例えば、マイコンデバイス103がログデータを保存する時刻を、Real Time Clockで特定する必要がない。マイコンデバイス103は、新たなペリフェラルパーツを追加することなく、無線又は有線でネットワーク接続するための機能や、画像形成装置102で処理可能なPDLデータを生成できる機能などを使用することができる。
 これによって、職場にある画像形成装置102、例えば、プリンターにマイコンデバイス103を装着することで、各種の労働環境に関する法案で測定が求められる労働環境値を収集するデバイスとして活用をすることができる。
 以上、第4の実施形態では、画像形成装置102にペリフェラルパーツをオプション搭載することで、ペリフェラルパーツより取得した環境情報を、画像形成装置102の内外で利用する例を示した。このように、ペリフェラルパーツから取得した情報を、画像形成装置102自体が利用するのではなく、外部サービス等が収集・分析することもできる。
 一般的には、ペリフェラルパーツの物理的な接続の手段や通信プロトコルには、GPIO、I2C、SPIなどの統一化された制御手段が用いられることが多い。しかし、当該通信プロトコル上でやりとりされるペリフェラルパーツの初期化および制御に関する制御コマンドは、共通化されておらず、互換性は保証されていない。そのため、同じ機能を有するペリフェラルパーツであっても、異なるメーカーや異なる部品であれば、異なる制御コマンドが必要となる場合がある。
 更に、ペリフェラルパーツを供給する会社の商業上の都合によって、当該ペリフェラルパーツの出荷が終了することがある。このとき、代替品の制御コマンドと従来採用のペリフェラルパーツの制御コマンドとの間に完全な互換性があることは保証されない。
 従来技術では、画像形成装置102にペリフェラルパーツを直接接続し、画像形成装置102がペリフェラルパーツを直接制御することで、画像形成装置102の機能を拡張していた。この時、ペリフェラルパーツの制御コマンドが変更された場合や、画像形成装置102の制御コマンドとペリフェラルパーツの制御コマンドとの間に差異がある場合などは、画像形成装置102のコントローラーファームに、新たな制御コマンドに対応するための修正が必要となった。そのため、ペリフェラルパーツの選定には、長期に亘って安定的に入手できる長期安定供給性が求められた。更に、様々なユーザーの使用環境や使用条件、ニーズを満足するために、高機能・高性能なペリフェラルパーツが必要となり、その結果、ペリフェラルパーツのコスト増加にもつながっていた。
 本発明の実施形態では、画像形成装置102にマイコンデバイス103が接続され、マイコンデバイス103がペリフェラルパーツと画像形成装置102とを制御する構成を有する。そして、マイコンデバイス103は、ペリフェラルパーツ毎に応じた制御手段を備える。したがって、画像形成装置102はペリフェラルパーツを制御する手段を備える必要はなくなり、新たな制御コマンドに対応するためのコントローラファームの更新が不要となる。マイコンデバイス103がこの構成を有することで、ペリフェラルパーツの選定条件が緩和され、様々なユーザーの使用環境や使用条件、ニーズに対して、必要十分な性能を有する安価なペリフェラルパーツを採用する事ができるようになる。
 本発明によれば、マイコンデバイス103を搭載すれば、画像形成装置102に新たな制御コマンドに対応するための修正を加えずとも、マイコンデバイスに修正を加えるだけで、様々なペリフェラルパーツに柔軟に対応できるようになる。これにより、ユーザーのニーズに応じた機能性・性能、更には長期安定供給性を持ち、かつ適切な価格のペリフェラルパーツを、幅広い選択肢から選択できる。以上により、画像形成装置の制御プログラムの追加または改変、ならびに画像形成装置へのハードウェアの追加または改変の必要を減らしてコストを抑えながら、画像形成装置が有する機能を柔軟に拡張することができる。
 以上、本発明について実施形態に基づいて説明したが、本発明は、これらの実施形態に限定されるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。
 例えば、上記の実施形態の機能を制御方法として、この制御方法を画像形成装置102又はマイコンデバイス103に実行させるようにすればよい。また、上述の実施形態の機能を有するプログラムを制御プログラムとして、当該制御プログラムを画像形成装置102又はマイコンデバイス103が備えるコンピュータに実行させるようにしてもよい。なお、制御プログラムは、例えば、コンピュータに読み取り可能な記録媒体に記録される。
 [その他の実施形態]
 本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
 101 データ処理装置
 102 画像形成装置
 103 マイコンデバイス
 110 コントローラ
 111 UIパネル
 162 ステータス管理部
 181 マイコンコマンド処理部
 251 マイコンデバイス制御部
 261 コマンド通信部
 271 ペリフェラルパーツ制御部

Claims (19)

  1.  画像を形成する機能を有する画像形成装置であって、
     前記画像形成装置の状態を管理するステータス管理手段と、
     前記画像形成装置に装着されるマイコンデバイスとの通信を行う通信手段と、
     前記通信手段によって前記マイコンデバイスからリクエストデータを受信するとともに、前記マイコンデバイスにレスポンスデータを送信するコマンド処理手段と、を有し、
     前記コマンド処理手段は、前記受信したリクエストデータに基づいて前記ステータス管理手段から前記画像形成装置の状態を取得して、前記取得した画像形成装置の状態に基づいて前記レスポンスデータを決定することを特徴とする画像形成装置。
  2.  前記コマンド処理手段はさらに、前記マイコンデバイスが前記画像形成装置に接続されたか否かを検知することを特徴とする請求項1に記載の画像形成装置。
  3.  前記画像形成装置の状態の1つである電源状態を制御する電源制御手段をさらに備え、
     前記マイコンデバイスから受信したリクエストデータが前記画像形成装置の電源状態を取得するためのリクエストデータである場合において、前記コマンド処理手段が前記リクエストデータを受信した際、前記コマンド処理手段は、前記受信したリクエストデータに基づいて前記ステータス管理手段によって前記電源制御手段から前記画像形成装置の電源状態を取得して、前記取得した画像形成装置の電源状態に基づいて前記レスポンスデータを決定することを特徴とする請求項1に記載の画像形成装置。
  4.  前記マイコンデバイスから受信したリクエストデータが前記画像形成装置の電源状態を設定するためのリクエストデータである場合において、前記コマンド処理手段が前記リクエストデータを受信した際、前記コマンド処理手段は、前記受信したリクエストデータに基づいて前記ステータス管理手段によって前記電源制御手段に対して前記電源状態の変更を要求し、前記電源状態の変更の結果に基づいて前記レスポンスデータを決定することを特徴とする請求項3に記載の画像形成装置。
  5.  前記マイコンデバイスから受信したリクエストデータが前記画像形成装置の状態の1つであるエラー状態を取得するためのリクエストデータである場合において、前記コマンド処理手段が前記リクエストデータを受信した際、前記コマンド処理手段は、前記ステータス管理手段によって取得した前記エラー状態に基づいて前記レスポンスデータを決定することを特徴とする請求項1に記載の画像形成装置。
  6.  前記画像形成装置の状態の1つであるジョブ状態を制御するジョブ制御手段をさらに有し、
     前記コマンド処理手段が前記マイコンデバイスから前記画像形成装置のジョブ状態を受信した際、前記コマンド処理手段は、前記ステータス管理手段によって前記ジョブ制御手段から前記ジョブ状態を取得して、前記取得したジョブ状態に基づいて前記レスポンスデータを決定することを特徴とする請求項1に記載の画像形成装置。
  7.  前記コマンド処理手段が前記マイコンデバイスから前記画像形成装置の状態の1つであるスプールジョブ状態を受信した際、前記コマンド処理手段は、前記ステータス管理手段によって前記ジョブ制御手段から前記スプールジョブ状態を取得して、前記取得したスプールジョブ状態に基づいて前記レスポンスデータを決定することを特徴とする請求項6に記載の画像形成装置。
  8.  前記画像形成装置に備えられ画像形成を行うためのプリントエンジンを制御するエンジン制御手段をさらに有し、
     前記マイコンデバイスから受信したリクエストデータが前記画像形成装置の状態の1つである前記プリントエンジンの状態を取得するためのリクエストデータである場合において、前記コマンド処理手段が前記リクエストデータを受信した際、前記コマンド処理手段は、前記ステータス管理手段によって前記エンジン制御手段から前記プリントエンジンの状態を取得して、前記取得したプリントエンジンの状態に基づいて前記レスポンスデータを決定することを特徴とする請求項1に記載の画像形成装置。
  9.  前記画像形成装置に備えられユーザーによって操作されるUIパネルを制御するUI制御手段をさらに有し、
     前記マイコンデバイスから受信したリクエストデータが前記画像形成装置の状態の1つである前記UIパネルの表示画面の状態を取得するためのリクエストデータである場合において、前記コマンド処理手段が前記リクエストデータを受信した際、前記コマンド処理手段は、前記ステータス管理手段によって前記UI制御手段から前記表示画面の状態を取得して、前記取得した表示画面の状態に基づいてレスポンスデータを決定することを特徴とする請求項1に記載の画像形成装置。
  10.  前記マイコンデバイスから受信したリクエストデータが、前記画像形成装置の状態の1つであって前記画像形成装置に備えられたストレージ手段に記憶されたデータの状態を取得するためのリクエストデータである場合において、前記コマンド処理手段が前記リクエストデータを受信した際、前記コマンド処理手段は、前記受信したリクエストデータで指定されたアドレスに基づいて前記ステータス管理手段によって前記ストレージ手段からデータを取得し、前記取得したデータに基づいて前記レスポンスデータを決定することを特徴とする請求項1に記載の画像形成装置。
  11.  前記マイコンデバイスから受信したリクエストデータが前記ストレージ手段にデータを設定するためのリクエストデータである場合において、前記コマンド処理手段が前記リクエストデータを受信した際、前記コマンド処理手段は、前記受信したリクエストデータで指定されたアドレスに基づいて前記ステータス管理手段によって前記ストレージ手段のデータを更新して、前記更新の結果に基づいて前記レスポンスデータを決定することを特徴とする請求項10に記載の画像形成装置。
  12.  前記マイコンデバイスから受信したリクエストデータがログデータを記録するためのリクエストデータである場合において、前記コマンド処理手段が前記リクエストデータを受信した際、前記ログデータの種別および内容に基づいて前記ステータス管理手段によって前記ストレージ手段に前記ログデータを追加して、前記追加の結果に基づいて前記レスポンスデータを決定することを特徴とする請求項10又は11に記載の画像形成装置。
  13.  マイコンチップと、複数のペリフェラルパーツと、を有し、画像形成装置に装着されるマイコンデバイスであって、
     前記マイコンチップは、
     前記画像形成装置に対する要求を示すリクエストデータを前記画像形成装置に送信するとともに、前記送信したリクエストデータに対する前記画像形成装置からの応答を示すレスポンスデータを受信するコマンド通信手段と、
     前記複数のペリフェラルパーツを制御するためのペリフェラルパーツ制御手段と、
     前記レスポンスデータおよび前記ペリフェラルパーツ制御手段による制御の結果の少なくとも1つに基づいて前記リクエストデータを決定するデバイス制御手段と、
     を有することを特徴とするマイコンデバイス。
  14.  前記デバイス制御手段は、前記レスポンスデータおよび前記ペリフェラルパーツ制御手段による制御の結果の少なくとも1つに基づいて前記複数のペリフェラルパーツの状態を変更することを特徴とする請求項13に記載のマイコンデバイス。
  15.  前記複数のペリフェラルパーツは、前記画像形成装置の周囲に人が存在するか否かを検知する第1のセンサーを含むことを特徴とする請求項13に記載のマイコンデバイス。
  16.  前記複数のペリフェラルパーツは、前記画像形成装置の周囲の環境の状態を検知する第2のセンサーを含むことを特徴とする請求項13に記載のマイコンデバイス。
  17.  前記複数のペリフェラルパーツは、前記画像形成装置に対するユーザーの操作を検知する第1のパーツを含むことを特徴とする請求項13に記載のマイコンデバイス。
  18.  前記複数のペリフェラルパーツは、前記画像形成装置を用いるユーザーに対して所定の報知を行うための第2のパーツを含むことを特徴とする請求項13に記載のマイコンデバイス。
  19.  前記デバイス制御手段は、前記画像形成装置の周囲に人が存在するか否かを検知する第1のセンサーによって人が前記画像形成装置の周囲に存在することが検知された際に、前記第2のパーツによって前記所定の報知を行うことを特徴とする請求項18に記載のマイコンデバイス。
PCT/JP2018/023539 2017-06-30 2018-06-14 コストを抑えてその機能の拡張を可能にする画像形成装置およびマイコンデバイス WO2019004033A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/708,764 US20200120232A1 (en) 2017-06-30 2019-12-10 Image forming apparatus and microcomputer device capable of extending functions thereof while reducing costs

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-129430 2017-06-30
JP2017129430A JP2019010825A (ja) 2017-06-30 2017-06-30 画像形成装置およびマイコンデバイス

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/708,764 Continuation US20200120232A1 (en) 2017-06-30 2019-12-10 Image forming apparatus and microcomputer device capable of extending functions thereof while reducing costs

Publications (1)

Publication Number Publication Date
WO2019004033A1 true WO2019004033A1 (ja) 2019-01-03

Family

ID=64740611

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/023539 WO2019004033A1 (ja) 2017-06-30 2018-06-14 コストを抑えてその機能の拡張を可能にする画像形成装置およびマイコンデバイス

Country Status (3)

Country Link
US (1) US20200120232A1 (ja)
JP (1) JP2019010825A (ja)
WO (1) WO2019004033A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7404674B2 (ja) * 2019-06-28 2023-12-26 ブラザー工業株式会社 画像記録装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1993017875A1 (en) * 1992-03-02 1993-09-16 Seiko Epson Corporation Additional control device, and apparatus and method for processing information thereby
JP2009267507A (ja) * 2008-04-22 2009-11-12 Sharp Corp 情報処理装置、複合機、複合機の外部認証システム、プログラム、および記録媒体
JP2014085931A (ja) * 2012-10-25 2014-05-12 Canon Inc 画像形成システム、画像形成装置及びオプション装置
JP2015006751A (ja) * 2013-06-25 2015-01-15 シャープ株式会社 印刷装置、配信方法及びプログラム
US20150350461A1 (en) * 2014-06-02 2015-12-03 Samsung Electronics Co., Ltd. Image forming apparatus, mobile apparatus and printing control method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1993017875A1 (en) * 1992-03-02 1993-09-16 Seiko Epson Corporation Additional control device, and apparatus and method for processing information thereby
JP2009267507A (ja) * 2008-04-22 2009-11-12 Sharp Corp 情報処理装置、複合機、複合機の外部認証システム、プログラム、および記録媒体
JP2014085931A (ja) * 2012-10-25 2014-05-12 Canon Inc 画像形成システム、画像形成装置及びオプション装置
JP2015006751A (ja) * 2013-06-25 2015-01-15 シャープ株式会社 印刷装置、配信方法及びプログラム
US20150350461A1 (en) * 2014-06-02 2015-12-03 Samsung Electronics Co., Ltd. Image forming apparatus, mobile apparatus and printing control method

Also Published As

Publication number Publication date
US20200120232A1 (en) 2020-04-16
JP2019010825A (ja) 2019-01-24

Similar Documents

Publication Publication Date Title
JP6632329B2 (ja) 画像形成装置とその制御方法、及びプログラム
JP4137144B2 (ja) データ処理装置およびその制御方法
US9235788B2 (en) Image forming apparatus, image forming method, and print system
US20070206210A1 (en) Image forming apparatus, information processing apparatus, printing system, and image forming method
JP5143117B2 (ja) 情報処理装置、情報処理装置の制御方法および情報処理システム
US7852501B2 (en) Information processing apparatus and information processing method
JP2019070926A (ja) 情報処理方法、プリントシステムおよびプログラム
JP5040264B2 (ja) 情報処理装置、情報更新方法及びそのプログラム
JP2009075707A (ja) 情報処理装置、情報処理装置の機器情報管理方法、プログラム
JP4865296B2 (ja) 情報処理装置及び情報処理方法
WO2019004033A1 (ja) コストを抑えてその機能の拡張を可能にする画像形成装置およびマイコンデバイス
KR100518829B1 (ko) 프린터 에러 처리 시스템 및 그 에러 처리방법
JP2008282090A (ja) 電子機器及び電子機器におけるファームウェア更新方法
KR100611189B1 (ko) 드라이버정보의 사전 전송을 통해 프린팅 오동작을예측하는 인쇄시스템 및 그 방법
JP6798351B2 (ja) 複合機、情報表示方法、およびコンピュータプログラム
JP2001154816A (ja) ステータス情報印刷プログラムを記録した媒体、印刷装置、印刷制御装置、ステータス情報印刷方法およびステータス情報印刷システム
JP5033467B2 (ja) プリンタ及びプリンタにおけるファームウェア更新方法
WO2024176980A1 (ja) サポートプログラム
JP4998087B2 (ja) プリンタ
JP2009119690A (ja) 画像形成装置、情報処理装置、及びプログラム
JP2009119689A (ja) 画像形成装置及びプログラム
JP2006157565A (ja) 画像処理装置
EP3674880A1 (en) Printing system, host apparatus, printing control method, and program
KR100444592B1 (ko) 인쇄동작 수행전 인쇄 출력여부를 재확인 가능한 프린터및 인쇄방법
JP2006088536A (ja) 画像形成装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18825338

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18825338

Country of ref document: EP

Kind code of ref document: A1