JP2006181874A - Image forming apparatus and method of processing image - Google Patents

Image forming apparatus and method of processing image Download PDF

Info

Publication number
JP2006181874A
JP2006181874A JP2004378110A JP2004378110A JP2006181874A JP 2006181874 A JP2006181874 A JP 2006181874A JP 2004378110 A JP2004378110 A JP 2004378110A JP 2004378110 A JP2004378110 A JP 2004378110A JP 2006181874 A JP2006181874 A JP 2006181874A
Authority
JP
Japan
Prior art keywords
user
information
data
image
instruction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004378110A
Other languages
Japanese (ja)
Inventor
Atsushi Kitagawara
淳志 北川原
Masao Morita
雅夫 森田
Masaru Okutsu
優 奥津
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2004378110A priority Critical patent/JP2006181874A/en
Publication of JP2006181874A publication Critical patent/JP2006181874A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Editing Of Facsimile Originals (AREA)
  • Accessory Devices And Overall Control Thereof (AREA)
  • Record Information Processing For Printing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image forming apparatus capable of preventing a document from being unexpectedly leaked to the outside, and a method of processing an image. <P>SOLUTION: An operation input detection section 46 designates an output operation including printing to document data formed by including at least one of image data and character data. A sound data conversion section 64 acquires an ID number input from a microphone 17 by a voice as identification information of a user. A user determination section 82 generates user determination information for determining a user according to the acquired identification information. An information addition section 88 adds the generated user determination information to the document data. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

この発明は、画像データ及び文字データの少なくとも一方を含んで構成された文書データによるプリント動作を含む出力動作を行う画像形成装置及び画像処理方法に関するものである。   The present invention relates to an image forming apparatus and an image processing method for performing an output operation including a printing operation using document data including at least one of image data and character data.

従来から複写機能、プリンタ機能等の複数の機能を備えた画像形成装置(所謂、デジタル複合機)が知られている。この種の画像形成装置は、一般に装置本体に備えられたスキャナにより原稿画像を読み取って取得した画像データにより示される画像、あるいは、ネットワーク等を介して接続された外部装置からプリントを依頼されたプリントデータにより示される画像を記録用紙にプリントするものとされている。また、この種の画像形成装置には、スキャナから読み取った画像を、例えば、PDF(Portable Document Format)ファイル形式等の所定形式の電子化ファイルに変換するファイル変換機能を備えたものがあり、変換した電子化ファイルをネットワークを介して外部装置へ出力することができるものもある。   2. Description of the Related Art Conventionally, an image forming apparatus (so-called digital multifunction peripheral) having a plurality of functions such as a copying function and a printer function is known. This type of image forming apparatus is generally an image indicated by image data obtained by reading a document image with a scanner provided in the apparatus main body, or a print requested to be printed from an external apparatus connected via a network or the like. An image indicated by the data is printed on a recording sheet. Some image forming apparatuses of this type have a file conversion function for converting an image read from a scanner into a digitized file such as a PDF (Portable Document Format) file format. Some digital files can be output to an external device via a network.

ところで、画像形成装置は、スキャナから機密文書を読み取って記録用紙へプリントしたり、電子化ファイルに変換してネットワーク等を介して外部装置へ出力したりする場合がある。従って、画像形成装置には、当該機密文書の部外者への流失を防止するためにセキュリティを高めることが求められている。   By the way, the image forming apparatus sometimes reads a confidential document from a scanner and prints it on a recording sheet, or converts it into an electronic file and outputs it to an external apparatus via a network or the like. Therefore, the image forming apparatus is required to improve security in order to prevent the confidential document from being lost to outsiders.

この画像形成装置のセキュリティを高めるための技術として、特許文献1には、ネットワークに接続されたスキャナとプリンタにそれぞれ指紋読取装置を備え、スキャナから原稿画像を読み込む際に指紋読取装置でユーザの指紋を読み込み、読み込んだ指紋パターンデータを原稿画像の画像データのヘッダに付加し、当該画像データをプリントする際に、プリンタの指紋読取装置で読み取ったユーザの指紋パターンと画像データのヘッダに付加された指紋パターンデータにより示される指紋パターンとが一致した場合に、プリントを許可する技術が開示されている。この技術により、スキャナから機密文書を読み取らせた画像データを異なるユーザによってプリントされることを防ぐことができる。
特開2002−281277公報
As a technique for enhancing the security of this image forming apparatus, Patent Document 1 discloses that a scanner and a printer connected to a network are each provided with a fingerprint reader, and a fingerprint of the user is read by the fingerprint reader when reading an original image from the scanner. Is added to the header of the image data of the original image, and when the image data is printed, it is added to the header of the user's fingerprint pattern and image data read by the fingerprint reader of the printer. A technique for permitting printing when a fingerprint pattern indicated by the fingerprint pattern data matches is disclosed. This technique can prevent image data obtained by reading a confidential document from the scanner from being printed by different users.
JP 2002-281277 A

しかしながら、上記特許文献1の技術は、スキャナによって読み取られた画像データを同一の人物のみによりプリント可能とする技術であるため、当該特許文献1の技術を用いても、機密文書の部外者への流出を防止することは困難であった。   However, since the technique disclosed in Patent Document 1 is a technique that allows image data read by a scanner to be printed only by the same person, even if the technique disclosed in Patent Document 1 is used, it can be used for outsiders of confidential documents. It was difficult to prevent the outflow.

すなわち、例えば、複数のユーザによってそれぞれ機密文書がプリントされて部外者へ流出したり、機密文書が電子化ファイルに変換されて部外者へ流出する場合が依然としてあった。   That is, for example, there are still cases where a confidential document is printed by a plurality of users and flows out to outsiders, or a confidential document is converted into an electronic file and leaked out to outsiders.

本発明は上記事実に鑑みてなされたものであり、文書の不用意な外部への流出を防止することができる、画像形成装置及び画像処理方法を提供することを目的とする。   The present invention has been made in view of the above facts, and an object thereof is to provide an image forming apparatus and an image processing method capable of preventing an inadvertent outflow of a document.

上記目的を達成するため、請求項1に記載の発明は、画像データ及び文字データの少なくとも一方を含んで構成された文書データによる、記録用紙へのプリント動作を含む出力動作の指示を入力する指示入力手段と、前記出力動作の指示を入力するユーザを識別するための識別情報を取得する取得手段と、前記取得手段により取得された前記識別情報に基づいて前記ユーザを特定するユーザ特定情報を生成する特定情報生成手段と、前記特定情報生成手段により生成された前記ユーザ特定情報を前記文書データに付加する付加手段と、を備えている。   In order to achieve the above object, the invention according to claim 1 is an instruction for inputting an instruction of an output operation including a printing operation on a recording paper by using document data including at least one of image data and character data. An input unit, an acquisition unit for acquiring identification information for identifying a user who inputs an instruction for the output operation, and user identification information for specifying the user based on the identification information acquired by the acquisition unit Specific information generating means, and adding means for adding the user specific information generated by the specific information generating means to the document data.

請求項1に記載の発明は、指示入力手段によって画像データ及び文字データの少なくとも一方を含んで構成された文書データに対してプリントを含む出力動作が指示されるものとして構成されている。ここで、本発明では、取得手段によって出力動作の指示を入力するユーザを識別するための識別情報が取得され、特定情報生成手段によって前記取得手段により取得された前記識別情報に基づいて前記ユーザを特定するユーザ特定情報が生成され、付加手段によって前記特定情報生成手段により生成された前記ユーザ特定情報が前記文書データに付加される。   The invention described in claim 1 is configured such that an output operation including printing is instructed to the document data including at least one of the image data and the character data by the instruction input unit. Here, in the present invention, identification information for identifying a user who inputs an output operation instruction is acquired by the acquisition unit, and the user is identified based on the identification information acquired by the acquisition unit by a specific information generation unit. User specifying information to be specified is generated, and the user specifying information generated by the specifying information generating unit is added by the adding unit to the document data.

このように請求項1記載の発明によれば、文書データの出力動作の指示を入力するユーザの識別情報を取得し、取得した識別情報に基づいてユーザを特定するユーザ特定情報を生成し、生成したユーザ特定情報を前記文書データに付加しているので、付加されたユーザ特定情報に基づいて当該文書データの出力動作を指示したユーザを特定することができるため、ユーザに対してユーザ自身の出力指示により出力された文書データへの注意を促すことができ、この結果として文書の不用意な外部への流出を防止することができる。   As described above, according to the first aspect of the present invention, the identification information of the user who inputs the instruction for the output operation of the document data is acquired, and the user identification information for specifying the user is generated based on the acquired identification information. Since the user specifying information is added to the document data, the user who has instructed the output operation of the document data can be specified based on the added user specifying information. It is possible to call attention to the document data output by the instruction, and as a result, it is possible to prevent the document from being inadvertently leaked to the outside.

なお、指示入力手段による文書データに対する出力動作の指示には、キーボード、ポインティング・デバイス等の入力装置の他、LAN、インターネット、イントラネット等の通信回線を介した外部装置にからの通信による、記録用紙へのプリント指示、LAN、インターネット、イントラネット等のネットワークを介した外部装置への出力指示が含まれる。   In addition, in the instruction of the output operation with respect to the document data by the instruction input means, in addition to input devices such as a keyboard and a pointing device, a recording sheet by communication from an external device via a communication line such as a LAN, the Internet, an intranet Print instructions, and output instructions to external devices via a network such as a LAN, the Internet, or an intranet.

また、上記取得手段による識別情報の取得には、キーボード、ポインティング・デバイス等の入力装置を介した取得の他、LAN、インターネット、イントラネット等の通信回線を介した外部装置からの通信による取得が含まれる。   The acquisition of identification information by the acquisition means includes acquisition through an input device such as a keyboard and a pointing device, as well as acquisition from an external device via a communication line such as a LAN, the Internet, or an intranet. It is.

一方、請求項1記載の発明は、請求項2記載の発明のように、前記文書データにより示される文書画像と当該文書データに付加された前記ユーザ特定情報により示される画像とを合成した合成画像を生成する合成画像生成手段と、前記指示入力によって前記プリント動作の指示が入力されたときに、前記合成画像生成手段により生成された前記合成画像を記録用紙へプリントするプリント手段と、をさらに備えたものとしてもよい。   On the other hand, the invention described in claim 1 is a composite image obtained by combining the document image indicated by the document data and the image indicated by the user specifying information added to the document data, as in the invention described in claim 2. And a print means for printing the composite image generated by the composite image generation means on a recording sheet when an instruction for the print operation is input by the instruction input. It is also good.

特に、請求項2記載の発明は、請求項3記載の発明のように、前記付加手段は、前記指示入力手段により前記出力動作の指示として、当該出力の条件を示す条件情報も入力された場合に、当該条件情報を前記文書データにさらに付加し、前記プリント手段は、前記文書データに付加された前記出力指示情報により示される指示内容に応じてプリントを行うようにしてもよい。   In particular, the invention described in claim 2 is the case where, as in the invention described in claim 3, the adding means receives condition information indicating a condition of the output as an instruction of the output operation by the instruction input means. In addition, the condition information may be further added to the document data, and the printing unit may perform printing according to the instruction content indicated by the output instruction information added to the document data.

また、本発明は、請求項4記載の発明のように、前記取得手段を、前記ユーザの声により入力されたID情報を示す音声データを取得するものとし、前記取得手段により取得された前記音声データに対する音声認識を行って、前記ID情報を文字データに変換する変換手段と、予め定められたユーザの名前及びID情報を含むユーザ情報データが予め記憶された記憶手段と、をさらに備え、前記特定情報生成手段は、前記変換手段により文字データに変換されたID情報と前記ユーザ情報データに含まれるID情報とを照合して前記出力動作の指示を入力したユーザを特定し、特定したユーザの名前及びID情報の少なくとも一方を含むものとして前記ユーザ特定情報を生成するようにしてもよい。   Further, according to the present invention, as in the invention described in claim 4, the acquisition unit acquires voice data indicating ID information input by the voice of the user, and the voice acquired by the acquisition unit Conversion means for performing voice recognition on the data and converting the ID information into character data; and storage means for storing user information data including a predetermined user name and ID information in advance, The identification information generation unit identifies the user who has input the instruction of the output operation by collating the ID information converted into character data by the conversion unit and the ID information included in the user information data, and The user specifying information may be generated as including at least one of name and ID information.

なお上記記憶手段には、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable and Programmable Read Only Memory)、フラッシュメモリ等の半導体メモリ、フレキシブルディスク等の可搬記憶媒体、ハードディスク等の固定記憶装置や、ネットワークを介して接続された外部装置の記憶装置が含まれる。   The storage means includes an EEPROM (Erasable Programmable Read Only Memory), an EEPROM (Electrically Erasable and Programmable Read Only Memory), a semiconductor memory such as a flash memory, a portable storage medium such as a flexible disk, a fixed storage device such as a hard disk, A storage device of an external device connected through a network is included.

さらに、請求項4記載の発明は、請求項5記載の発明のように、前記取得手段を前記ユーザの顔の特徴を示す顔特徴データ及び前記ユーザの指紋の特徴を示す指紋特徴データを更に取得するものとし、前記ユーザ情報データは、前記予め定められたユーザの顔特徴データと指紋特徴データとをさらに含み、前記特定情報生成手段は、前記取得手段により取得された顔特徴データ及び指紋特徴データと、前記ユーザ情報データに含まれる、前記変換手段により文字データに変換されたID情報に対応する顔特徴データ及び指紋特徴データと、を照合して前記ユーザの特定を行うようにしてもよい。   Further, according to a fourth aspect of the present invention, as in the fifth aspect of the present invention, the acquisition means further acquires facial feature data indicating facial features of the user and fingerprint feature data indicating features of the user's fingerprint. The user information data further includes the predetermined user face feature data and fingerprint feature data, and the specific information generating means is the face feature data and fingerprint feature data obtained by the obtaining means. Further, the user may be specified by collating face feature data and fingerprint feature data corresponding to the ID information converted into character data by the conversion means included in the user information data.

特に、請求項4又は請求項5記載の発明は、請求項6記載の発明のように、前記ユーザ情報データは、前記予め定められたユーザ毎に前記記録用紙へのプリントをカラーで行うか、当該プリントを白黒で行うか、当該プリントを不許可とするかを示すプリント動作情報をさらに含み、プリントの操作指示を入力するための操作画面を表示する表示手段と、
前記特定情報生成手段により特定された前記ユーザに対応する前記プリント動作情報に基づいて前記表示手段に表示する前記操作画面の表示内容を設定する表示設定手段と、をさらに備えたものとしてもよい。
In particular, in the invention according to claim 4 or claim 5, as in the invention according to claim 6, the user information data is printed on the recording paper in color for each of the predetermined users. Display means for displaying an operation screen for inputting a print operation instruction, further including print operation information indicating whether the print is performed in black and white or the print is not permitted;
Display setting means for setting display contents of the operation screen to be displayed on the display means based on the print operation information corresponding to the user specified by the specific information generating means may be further provided.

なお、上記表示手段には、CRTディスプレイ装置、プラズマ・ディスプレイ装置、有機ELディスプレイ装置、液晶ディスプレイ装置等のディスプレイ装置が含まれる。   The display means includes display devices such as a CRT display device, a plasma display device, an organic EL display device, and a liquid crystal display device.

また、請求項4又は請求項5記載の発明は、請求項7記載の発明のように、前記ユーザ情報データは、前記予め定められてたユーザ毎に表示される文字を拡大するか否かを示す文字表示情報をさらに含み、所定の操作画面を表示する表示手段と、前記特定情報生成手段により特定された前記ユーザに対応する前記文字表示情報に基づいて前記表示手段に表示する前記操作画面の文字の大きさを設定する表示設定手段と、をさらに備えるものとしてもよい。   Further, in the invention according to claim 4 or claim 5, as in the invention according to claim 7, the user information data determines whether or not to enlarge a character displayed for each predetermined user. Display means for displaying a predetermined operation screen, and display the operation screen displayed on the display means based on the character display information corresponding to the user specified by the specific information generation means. Display setting means for setting the size of characters may be further provided.

一方、上記目的を達成するため、請求項8に記載の画像処理方法は、ユーザからの記録用紙へのプリント動作を含む出力動作の指示により画像データ及び文字データの少なくとも一方を含んで構成された文書データにより示される画像に対する画像処理方法であって、前記出力動作の指示を入力する前記ユーザを識別するための識別情報を取得し、取得した前記識別情報に基づいて前記ユーザを特定するユーザ特定情報を生成し、生成された前記ユーザ特定情報を前記文書データに付加している。   On the other hand, in order to achieve the above object, an image processing method according to claim 8 is configured to include at least one of image data and character data in accordance with an output operation instruction including a print operation on a recording sheet from a user. An image processing method for an image indicated by document data, wherein identification information for identifying the user who inputs the output operation instruction is acquired, and the user is specified based on the acquired identification information Information is generated, and the generated user specifying information is added to the document data.

従って、請求項8に記載の画像処理方法は、請求項1と同様に作用するので、請求項1記載と同様に、ユーザに対してユーザ自身の出力指示により出力された文書データへの注意を促すことができ、この結果として文書の不用意な外部への流出を防止することができる。   Therefore, since the image processing method according to the eighth aspect operates in the same manner as the first aspect, attention to the document data output by the user's own output instruction is given to the user as with the first aspect. As a result, it is possible to prevent inadvertent outflow of documents.

以上説明したように、本発明によれば、文書データの出力動作の指示を入力するユーザの識別情報を取得し、取得した識別情報に基づいてユーザを特定するユーザ特定情報を生成し、生成したユーザ特定情報を前記文書データに付加しているので、付加されたユーザ特定情報に基づいて当該文書データの出力動作を指示したユーザを特定することができるため、ユーザに対してユーザ自身の出力指示により出力された文書データへの注意を促すことができ、この結果として文書の不用意な外部への流出を防止することができる、という優れた効果を有する。   As described above, according to the present invention, identification information of a user who inputs an instruction to output document data is acquired, and user identification information for specifying the user is generated based on the acquired identification information. Since the user specifying information is added to the document data, the user who specified the output operation of the document data can be specified based on the added user specifying information. As a result, it is possible to call attention to the document data output, and as a result, it is possible to prevent an inadvertent outflow of the document.

以下、図面を参照して、本発明の実施の形態について詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1には、本実施の形態に係る画像形成装置10の概略構成が示されている。   FIG. 1 shows a schematic configuration of an image forming apparatus 10 according to the present embodiment.

同図に示すように、この画像形成装置10は、所定の読込位置に載置された記録用紙から画像を読み込み、当該画像を示す画像データを取得するスキャナ11と、スキャナ11により取得した画像データや外部から取得した画像データ等の各種画像データを用いて画像形成処理を行う装置本体12と、操作メニューやメッセージ等を表示すると共に表面に透過型のタッチパネルが一体的に設けられたタッチパネル・ディスプレイ(以下、「ディスプレイ」という。)14と、当該画像形成装置10を操作するユーザの顔を撮影するカメラ16と、ユーザからの声による操作指示を電気信号に変換するマイク17と、指紋センサを内蔵すると共に、ユーザが当該指紋センサに指を接触させることによりユーザの指の指紋パターンを読み取って当該指紋パターンを示す指紋パターンデータを出力する指紋読取部18と、を有している。   As shown in FIG. 1, the image forming apparatus 10 reads an image from a recording sheet placed at a predetermined reading position, acquires image data indicating the image, and image data acquired by the scanner 11. A device main body 12 that performs image forming processing using various image data such as image data acquired from the outside, and a touch panel display that displays an operation menu, a message, and the like, and a transmissive touch panel is integrally provided on the surface (Hereinafter referred to as “display”) 14, a camera 16 that captures the face of the user who operates the image forming apparatus 10, a microphone 17 that converts an operation instruction by a voice from the user into an electrical signal, and a fingerprint sensor In addition, the user touches the fingerprint sensor to read the fingerprint pattern of the user's finger. It has a fingerprint reading unit 18 for outputting fingerprint pattern data of a fingerprint pattern.

なお、本実施の形態に係る画像形成装置10では、上記タッチパネルとして感圧方式のものを採用しており、ユーザがディスプレイ14の表示面に指先にて接触する(タッチ操作する)ことにより画像形成装置10に対して各種の動作を指示することができる。   Note that in the image forming apparatus 10 according to the present embodiment, a pressure-sensitive touch panel is used as the touch panel, and image formation is performed when the user touches the display surface of the display 14 with a fingertip (touch operation). Various operations can be instructed to the apparatus 10.

また、本実施の形態に係る画像形成装置10では、上記指紋読取部18に内蔵された指紋センサとして静電容量方式のものを採用しており、皮膚の表面とセンサ表面の間で生じる静電容量が、皮膚の凹凸に応じて変化することを利用して指紋パターンを検出するものとされている。なお、指紋センサとしては、このような静電容量方式のものに限らず、光学式、感熱式等の他の方式のものを用いてもよい。   Further, in the image forming apparatus 10 according to the present embodiment, a capacitance type sensor is employed as the fingerprint sensor built in the fingerprint reading unit 18, and electrostatic capacitance generated between the skin surface and the sensor surface is employed. The fingerprint pattern is detected by utilizing the fact that the capacitance changes according to the unevenness of the skin. Note that the fingerprint sensor is not limited to such a capacitive type, and other types such as an optical type and a thermal type may be used.

さらに、装置本体12の内部には、電子写真方式にて記録用紙上への画像のプリントを行う画像形成エンジン部15(図1では図示省略。図2参照。)が備えられている。この画像形成エンジン部15は、イエロー(Y)、マゼンタ(M)、シアン(C)、ブラック(K)の4色のトナーを用いてフルカラーの画像を形成することができる。また、ブラックのトナーのみを用いて白黒の階調画像を形成することができる。   Further, an image forming engine unit 15 (not shown in FIG. 1; see FIG. 2) that prints an image on a recording sheet by an electrophotographic method is provided inside the apparatus main body 12. The image forming engine unit 15 can form a full color image using toners of four colors of yellow (Y), magenta (M), cyan (C), and black (K). Further, it is possible to form a black and white gradation image using only black toner.

一方、本実施の形態に係る画像形成装置10は、ネットワーク20に接続されている。なお、本実施の形態では、ネットワーク20としてインターネットを適用しているが、これに限らず、イントラネット、LAN(Local Area Network)、エコーネット(ECHONET)、HomePNA等の各種ネットワークを単独又は組み合わせて適用することもできる。   On the other hand, the image forming apparatus 10 according to the present embodiment is connected to a network 20. In the present embodiment, the Internet is applied as the network 20. However, the present invention is not limited to this, and various networks such as an intranet, a LAN (Local Area Network), an Echonet, and a HomePNA are applied singly or in combination. You can also

一方、ネットワーク20にはパーソナル・コンピュータ、ワークステーション等の端末装置22が接続されており、画像形成装置10と端末装置22とはネットワーク20を介して互いに通信可能となっている。このネットワーク20は、図示しない他のネットワークとも接続されており、画像形成装置10はネットワーク20を介して当該他のネットワークに接続された図示しないメールサーバとも互いに通信可能となっている。また、画像形成装置10は、一般通信回線21とも接続されており、ファクシミリ通信を行うことができる。   On the other hand, a terminal device 22 such as a personal computer or a workstation is connected to the network 20, and the image forming apparatus 10 and the terminal device 22 can communicate with each other via the network 20. The network 20 is also connected to another network (not shown), and the image forming apparatus 10 can communicate with a mail server (not shown) connected to the other network via the network 20. The image forming apparatus 10 is also connected to a general communication line 21 and can perform facsimile communication.

次に、図2を参照して、画像形成装置10の電気系の要部構成を説明する。   Next, with reference to FIG. 2, the main configuration of the electrical system of the image forming apparatus 10 will be described.

画像形成装置10は、装置全体の動作を司るCPU(中央処理装置)40と、制御プログラムを含む各種プログラムや後述するユーザからの音声による指示を特定するための指示情報テーブル72(図4も参照。)等が予め記憶されたROM42と、各種データを一時的に記憶するRAM48と、スキャナ11等の各機器デバイスにより取得された各種データや各種プログラム、後述するユーザ情報テーブル70(図4も参照。)を記憶するためのHDD(ハードディスク・ドライブ)56と、ディスプレイ14への各種情報の表示を制御するディスプレイドライバ44と、ディスプレイ14のタッチ操作を検出する操作入力検出部46と、マイク17と接続されて当該マイク17によって受信したアナログの音声信号をデジタル音声データに変換する音声データ変換部64と、を備えている。   The image forming apparatus 10 includes a central processing unit (CPU) 40 that controls the operation of the entire apparatus, and an instruction information table 72 (see also FIG. 4) for specifying various programs including a control program and voice instructions from a user described later. .) And the like, a RAM 48 for temporarily storing various data, various data and various programs acquired by each device such as the scanner 11, and a user information table 70 described later (see also FIG. 4). )), A display driver 44 that controls display of various types of information on the display 14, an operation input detector 46 that detects a touch operation on the display 14, and a microphone 17. An analog audio signal connected and received by the microphone 17 is converted into digital audio data. An audio data converting unit 64 for converting comprises a.

なお、音声データ変換部64は、通過周波数帯域が変更可能なバンドパスフィルタ及び所定の増幅率とされた増幅器(共に図示省略。)を備えており、当該バンドパスフィルタにより予め設定された通過周波数帯域のデジタル音声データのみを抽出し、増幅器により所定の増幅率で増幅して出力するものとされている。   The audio data converter 64 includes a bandpass filter whose pass frequency band can be changed and an amplifier (both not shown) having a predetermined amplification factor, and the pass frequency preset by the bandpass filter. Only the digital audio data in the band is extracted, amplified with a predetermined amplification factor by an amplifier, and output.

また、HDD56には、音声データ変換部64から出力されたデジタル音声データを文字データへ変換する音声認識プログラムが記憶されている。この音声認識プログラムは、予め所定の文字列データ(テキストデータ)と、これに対応する音声パターンデータと、が関連付けられて登録された音声辞書を有している。なお、この音声認識プログラムとしては、公知の音声認識プログラム(例えば、日本アイ・ビー・エム社、ビア・ボイス(ViaVoice)(登録商標))をインストールして用いてもよい。   The HDD 56 stores a voice recognition program for converting digital voice data output from the voice data converter 64 into character data. This speech recognition program has a speech dictionary in which predetermined character string data (text data) and speech pattern data corresponding thereto are registered in advance in association with each other. In addition, as this voice recognition program, a known voice recognition program (for example, IBM Japan, ViaVoice (registered trademark)) may be installed and used.

また、上記指示情報テーブル72には、例えば、「カラーコピー」と‘フルカラーでの複写開始指示’、「3枚」と‘指示枚数3枚’、といったように上記音声認識プログラムによって得られる文字データに対応する文字データと当該文字データが意味する操作指示内容が対応付けられて記憶されている。   In the instruction information table 72, for example, “color copy” and “full-color copy start instruction”, “three sheets” and “three designated sheets” character data obtained by the voice recognition program, for example. Is stored in association with the character data corresponding to and the operation instruction content meaning the character data.

CPU40、RAM48、ROM42、HDD56、ディスプレイドライバ44、操作入力検出部46、及び音声データ変換部64は、システムバスBUSを介して相互に接続されている。従って、CPU40は、RAM48、ROM42、HDD56へのアクセスと、ディスプレイドライバ44を介したディスプレイ14への各種情報の表示と、を各々行うことができると共に、操作入力検出部46に対するユーザのタッチ操作による操作指示、上述した音声認識プログラムにより音声データ変換部64から出力されたデジタル音声データを文字データに変換し、変換した文字データから指示情報テーブル72に登録されている文字列を検索することによるユーザからのマイク17を介した音声による操作指示の各指示内容、を把握することができる。   The CPU 40, RAM 48, ROM 42, HDD 56, display driver 44, operation input detection unit 46, and audio data conversion unit 64 are connected to each other via a system bus BUS. Therefore, the CPU 40 can perform access to the RAM 48, the ROM 42, and the HDD 56 and display various information on the display 14 via the display driver 44, and can be performed by a user's touch operation on the operation input detection unit 46. The user by operating instructions, converting the digital voice data output from the voice data converter 64 by the voice recognition program described above into character data, and searching the character string registered in the instruction information table 72 from the converted character data It is possible to grasp each instruction content of the operation instruction by voice through the microphone 17.

一方、画像形成装置10は、スキャナ11による光学的な画像の読み取りを制御するスキャナドライバ50と、前述した画像形成エンジン部15を制御する画像形成エンジン制御部54と、一般通信回線21に接続されるコネクタ57に接続され、コネクタ57を介して一般通信回線21に接続されたファクシミリ装置との間でファクシミリ電文の送受信を行うファクシミリI/F(インタフェース)部58と、ネットワーク20に接続されるコネクタ59に接続され、コネクタ59を介してネットワーク20に接続された端末装置22との間で通信データの送受信を行うネットワークI/F(インタフェース)部60と、カメラ16の撮像動作を制御してカメラ16から撮影画像を示す画像データを取得するカメラ制御部62と、指紋読取部18を制御して指紋パターンデータを取得する指紋読取制御部66と、を備えている。   On the other hand, the image forming apparatus 10 is connected to a scanner driver 50 that controls reading of an optical image by the scanner 11, an image forming engine control unit 54 that controls the image forming engine unit 15, and a general communication line 21. A facsimile I / F (interface) unit 58 for transmitting / receiving facsimile telegrams to / from a facsimile apparatus connected to the general communication line 21 via the connector 57, and a connector connected to the network 20. 59, a network I / F (interface) unit 60 that transmits and receives communication data to and from the terminal device 22 connected to the network 20 via the connector 59, and the camera 16 by controlling the imaging operation of the camera 16. A camera control unit 62 for acquiring image data indicating a photographed image from 16 and fingerprint reading 18 controlled to a provided with a fingerprint reader controller 66 obtains the fingerprint pattern data.

そして、スキャナドライバ50、画像形成エンジン制御部54、ファクシミリI/F部58、ネットワークI/F部60、カメラ制御部62、及び指紋読取制御部66もまた、上述したシステムバスBUSに接続されている。従って、CPU40は、スキャナドライバ50を介したスキャナ11の作動の制御、画像形成エンジン制御部54を介した画像形成エンジン部15の作動の制御、ファクシミリI/F部58を介したファクシミリ電文の送受信の制御、ネットワークI/F部60を介した通信データの送受信の制御、カメラ制御部62を介したカメラ16の撮像動作の制御、指紋読取制御部66を介した指紋読取部18の作動の制御、を各々行うことができる。   The scanner driver 50, the image forming engine control unit 54, the facsimile I / F unit 58, the network I / F unit 60, the camera control unit 62, and the fingerprint reading control unit 66 are also connected to the system bus BUS described above. Yes. Accordingly, the CPU 40 controls the operation of the scanner 11 via the scanner driver 50, controls the operation of the image forming engine unit 15 via the image forming engine control unit 54, and transmits / receives a facsimile message via the facsimile I / F unit 58. Control, transmission / reception control of communication data via the network I / F unit 60, control of imaging operation of the camera 16 via the camera control unit 62, control of operation of the fingerprint reading unit 18 via the fingerprint reading control unit 66 , Respectively.

なお、本実施の形態に係る画像形成装置10は、電子メールを送信するためのソフトウェアがHDD56にインストールされており、当該ソフトウェアにより、ユーザによるディスプレイ14に対する所定操作により電子メールをネットワークI/F部60よりネットワーク20を介して不図示のメールサーバへ送信することもできる。   Note that in the image forming apparatus 10 according to the present embodiment, software for transmitting an e-mail is installed in the HDD 56, and the e-mail is sent to the network I / F unit by a predetermined operation on the display 14 by the user using the software. 60 to the mail server (not shown) via the network 20.

さらに、画像形成装置10はファイルサーバ機能も有しており、ネットワークI/F部60を介してネットワーク20に接続された端末装置22に対して画像データの電子化ファイルをファイル転送することができる。   Further, the image forming apparatus 10 also has a file server function, and can transfer an electronic file of image data to a terminal device 22 connected to the network 20 via the network I / F unit 60. .

ところで、本実施の形態に係る画像形成装置10は、ユーザが何れかの操作を行う際に、後述するユーザ情報テーブル70に基づいて当該ユーザが画像形成装置10を操作する権限があるかを認証するユーザ認証機能を有している。また、画像形成装置10は、ユーザ情報テーブル70にユーザ毎に設定されている内容に応じてディスプレイ14に表示される操作画面を設定する操作画面設定機能を有している。   Incidentally, the image forming apparatus 10 according to the present embodiment authenticates whether the user has the authority to operate the image forming apparatus 10 based on a user information table 70 described later when the user performs any operation. User authentication function. Further, the image forming apparatus 10 has an operation screen setting function for setting an operation screen displayed on the display 14 in accordance with the contents set for each user in the user information table 70.

図3には、本実施の形態に係るユーザ情報テーブル70のデータ構造の1例が模式的に示されている。図3に示されるように、このユーザ情報テーブル70には、ユーザのID番号、氏名、顔パターン、指紋パターン、操作許可設定、画面表示設定の各情報が予め定められたユーザ毎に登録されている。なお、ID番号は、ユーザを特定するためのものであり各ユーザ毎に固有の情報が割当てられている。また、氏名は、対応するユーザの氏名を示すものであり、顔パターンは、対応するユーザに対するカメラ16による撮像によって得られた当該ユーザの顔の特徴を示すものである。また、指紋パターンは、対応するユーザから指紋読取部18で取得した当該ユーザの指の指紋の特徴を示すものである。また、操作許可設定は、対応するユーザのプリント操作に対する制限状態を示すものであり本実施の形態では、プリントを許可しない場合は「不許可」が、カラープリントを許可する場合は「カラー」が、白黒プリントを許可する場合は「白黒」が、各々登録される。さらに、画面表示設定は、ディスプレイ14に表示する操作画面の文字の大きさを示すものであり、操作画面に表示する文字を大きくする場合は「拡大」が、文字を通常のままとする場合は「通常」が、各々登録される。   FIG. 3 schematically shows an example of the data structure of the user information table 70 according to the present embodiment. As shown in FIG. 3, in the user information table 70, the user ID number, name, face pattern, fingerprint pattern, operation permission setting, and screen display setting information are registered for each predetermined user. Yes. The ID number is for identifying a user, and unique information is assigned to each user. The name indicates the name of the corresponding user, and the face pattern indicates the feature of the user's face obtained by imaging the corresponding user with the camera 16. The fingerprint pattern indicates the fingerprint characteristics of the user's finger acquired by the fingerprint reading unit 18 from the corresponding user. Further, the operation permission setting indicates a restriction state with respect to the printing operation of the corresponding user. In this embodiment, “not permitted” is set when printing is not permitted, and “color” is set when color printing is permitted. When monochrome printing is permitted, “black and white” is registered. Further, the screen display setting indicates the size of the characters on the operation screen displayed on the display 14, and “enlarge” is displayed when the characters displayed on the operation screen are enlarged, while the characters are kept normal. Each of “normal” is registered.

一方、本実施の形態に係る画像形成装置10は、上述したユーザ認証機能により操作する権限があるユーザであると認証された後に、当該ユーザからの指示に応じて記録用紙へのプリントを行う際に、プリントの指示を行ったユーザを後から特定する情報として、ID番号及び氏名をプリントする画像に付加してプリントするユーザ特定情報付加機能を有している。   On the other hand, when the image forming apparatus 10 according to the present embodiment is authenticated as a user who is authorized to operate using the above-described user authentication function, the image forming apparatus 10 performs printing on a recording sheet in accordance with an instruction from the user. In addition, a user specifying information adding function for adding an ID number and a name to an image to be printed as information for specifying a user who has given a print instruction later is provided.

図4には、上述したユーザ認証機能、操作画面設定機能及び特定情報付加機能を実現するための画像形成装置10の機能的な構成を示すブロック図が示されている。   FIG. 4 is a block diagram illustrating a functional configuration of the image forming apparatus 10 for realizing the above-described user authentication function, operation screen setting function, and specific information addition function.

同図に示すように、画像形成装置10は、音声認識部80と、顔パターン生成部81と、ユーザ特定部82と、操作画面制御部84と、操作情報作成部86と、情報付加部88と、画像合成部90と、操作情報解析部92と、を備えている。   As shown in the figure, the image forming apparatus 10 includes a voice recognition unit 80, a face pattern generation unit 81, a user identification unit 82, an operation screen control unit 84, an operation information creation unit 86, and an information addition unit 88. And an image synthesis unit 90 and an operation information analysis unit 92.

本実施の形態に係る音声認識部80は、HDD58に記憶された音声認識プログラムを用いて音声データ変換部64より出力されたデジタル音声データから1文節又は1単語分の音声データを順に取り出し、取り出した音声データを音声辞書に登録されている音声パターンと照合(パターンマッチング)することで音声認識を行い、ユーザにより発生された言葉に対応する文字データに変換する。   The voice recognition unit 80 according to the present embodiment sequentially extracts and extracts one phrase or one word of voice data from the digital voice data output from the voice data conversion unit 64 using the voice recognition program stored in the HDD 58. Voice recognition is performed by matching the voice data with a voice pattern registered in the voice dictionary (pattern matching), and the voice data is converted into character data corresponding to a word generated by the user.

また、本実施の形態に係る顔パターン生成部81は、カメラ16による撮影によって得られ、カメラ制御部62を介して入力された画像データにより示される画像から公知の顔領域検出技術を用いてユーザの顔領域を検出し、当該顔領域内に存在する顔の特徴(例えば、顔の輪郭位置を基準とした目、鼻、口等の位置関係を示す特徴等)を求めて、ユーザ情報テーブル70の顔パターンと同一フォーマットとされた顔パターンデータを生成する。   In addition, the face pattern generation unit 81 according to the present embodiment is obtained by photographing with the camera 16 and is used by a user using a known face area detection technique from an image indicated by image data input via the camera control unit 62. , A facial feature existing in the facial region (for example, a feature indicating the positional relationship of eyes, nose, mouth, etc. based on the facial contour position) is obtained, and the user information table 70 is obtained. The face pattern data having the same format as the face pattern is generated.

また、本実施の形態に係るユーザ特定部82は、ユーザ認証時に音声認識部80より得られた文字データによって示される文字をユーザ情報テーブル70のID番号と照合してユーザを特定する。すなわち、ユーザ認生時にユーザは、自身に予め割り振られたID番号をマイク17に向かって発声する。また、ユーザ特定部82は、顔パターン生成部81により生成されたユーザの顔パターンデータにより示される顔パターン及び指紋読取部18により取得されたユーザの指紋パターンデータにより示される指紋パターンを、特定したユーザに対応するユーザ情報データの顔パターン及び指紋パターンと照合(パターンマッチング)を行い、ユーザの認証を行う。   In addition, the user specifying unit 82 according to the present embodiment specifies the user by checking the character indicated by the character data obtained from the voice recognition unit 80 at the time of user authentication with the ID number of the user information table 70. That is, at the time of user authentication, the user utters the ID number assigned to himself / herself toward the microphone 17. Further, the user specifying unit 82 specifies the face pattern indicated by the user's face pattern data generated by the face pattern generation unit 81 and the fingerprint pattern indicated by the user's fingerprint pattern data acquired by the fingerprint reading unit 18. The face information and fingerprint pattern of the user information data corresponding to the user are collated (pattern matching) to authenticate the user.

また、本実施の形態に係る操作画面制御部84は、ユーザ特定部82により特定されたユーザに対応するユーザ情報データの操作許可設定及び画面表示設定の各情報に従ってディスプレイドライバ44を制御し、操作画面の表示内容を設定する。   In addition, the operation screen control unit 84 according to the present embodiment controls the display driver 44 according to each information of the operation permission setting and the screen display setting of the user information data corresponding to the user specified by the user specifying unit 82, Set the display contents of the screen.

一方、本実施の形態に係る操作情報作成部86は、音声認識部80により得られた文字データから指示情報テーブル72に登録されている文字列を検索することによりユーザの発声による操作指示の内容を把握する。また、操作情報作成部86は、ディスプレイ14へのユーザのタッチ操作の状態を操作入力検出部46を介して取得し、ユーザによる操作指示の内容を把握する。そして、操作情報作成部86は、ユーザ特定部82において特定されたユーザに対応するユーザ情報データの操作許可設定の内容から、把握した操作指示の内容が当該操作を指示したユーザに許可されているか否かを判断する。   On the other hand, the operation information creation unit 86 according to the present embodiment searches for a character string registered in the instruction information table 72 from the character data obtained by the voice recognition unit 80, and thereby the content of the operation instruction by the user's utterance. To figure out. Further, the operation information creation unit 86 acquires the state of the user's touch operation on the display 14 via the operation input detection unit 46, and grasps the content of the operation instruction by the user. Then, the operation information creation unit 86 determines whether the content of the operation instruction grasped from the operation permission setting content of the user information data corresponding to the user specified by the user specifying unit 82 is permitted to the user who instructed the operation. Judge whether or not.

一方、本実施の形態に係る情報付加部88は、スキャナ11から読み込まれた画像データに対して、ユーザ特定部82において特定したユーザのID番号及び氏名をユーザ特定情報として付加する。また、情報付加部88は、操作情報作成部86において把握された操作指示内容を示す操作指示データ(出力指示情報)に上記画像データに付加する。なお、ここでいう‘付加’には、画像データの内部(例えば、ヘッダ、フッタ等)に付加すること、属性情報(タグ)を用いて付加するデータと画像データとを同一の電子化ファイルとして記憶させること、画像データに関連付けて当該画像データとは異なる電子化ファイルとして記憶させること等が含まれる。また、上記操作指示データは、装置を制御する制御コードであってもよく、スクリプト言語として記述されていてもよい。   On the other hand, the information adding unit 88 according to the present embodiment adds the user ID number and name specified by the user specifying unit 82 to the image data read from the scanner 11 as user specifying information. The information adding unit 88 adds operation instruction data (output instruction information) indicating the operation instruction content grasped by the operation information creating unit 86 to the image data. Note that “addition” here refers to addition to the inside of image data (for example, header, footer, etc.), and data to be added using attribute information (tag) and image data as the same digitized file. It includes storing the image data, associating it with the image data, and storing it as an electronic file different from the image data. The operation instruction data may be a control code for controlling the apparatus or may be described as a script language.

また、本実施の形態に係る画像合成部90は、画像データにより示される画像の所定領域に、当該画像データにユーザ特定情報として付加されたID番号及び氏名を示す画像を合成した合成画像を生成する。   In addition, the image composition unit 90 according to the present embodiment generates a composite image in which an image indicating an ID number and a name added as user identification information to the image data is combined with a predetermined area of the image indicated by the image data. To do.

また、本実施の形態に係る操作情報解析部92は、画像データに付加された操作指示データにより示される指示内容に基づいて画像形成エンジン制御部54を制御する。   Further, the operation information analysis unit 92 according to the present embodiment controls the image forming engine control unit 54 based on the instruction content indicated by the operation instruction data added to the image data.

ところで、本実施の形態に係る画像形成装置10は、ユーザ認証機能及び操作画面設定機能を認証/画面設定処理プログラムにて、特定情報付加機能を特定情報付加/プリント処理プログラムにて、各々ソフトウェアにより実現している。   By the way, the image forming apparatus 10 according to the present embodiment has a user authentication function and an operation screen setting function by an authentication / screen setting processing program, and a specific information addition function by a specific information addition / print processing program, respectively by software. Realized.

次に、ユーザ認証機能、操作画面設定機能及び特定情報付加機能を実行時する際の画像形成装置10の作用を説明する。   Next, the operation of the image forming apparatus 10 when executing the user authentication function, the operation screen setting function, and the specific information addition function will be described.

まず、図5を参照して、本実施の形態の係るユーザ認証機能、操作画面設定機能を実行する際の画像形成装置10の作用を説明する。なお、図5は、このときCPU40によって実行される認証/画面設定処理プログラムの流れを示すフローチャ−トであり、当該プログラムは、ROM42の所定の領域に予め記憶されている。   First, the operation of the image forming apparatus 10 when executing the user authentication function and the operation screen setting function according to the present embodiment will be described with reference to FIG. FIG. 5 is a flowchart showing the flow of the authentication / screen setting processing program executed by the CPU 40 at this time, and the program is stored in a predetermined area of the ROM 42 in advance.

同図のステップ100では、ユーザからのマイク17を介した音声データの入力待ちを行いステップ102では、マイク17より入力されたアナログの音声信号を音声データ変換部64でデジタル音声データに変換し、これを音声認識プログラムによりデジタル音声データを文字データに変換する。   In step 100 of FIG. 6, the user waits for voice data to be input through the microphone 17. In step 102, the analog voice signal input from the microphone 17 is converted into digital voice data by the voice data converter 64. The digital voice data is converted into character data by a voice recognition program.

次のステップ104では、以上の処理によって得られた文字データにより示される文字列がユーザ情報データのID番号として登録されているか否かを判定し、肯定判定の場合はステップ106へ移行し、否定判定の場合はステップ114ヘ移行する。すなわち、本ステップ104の処理により肯定判定となった場合はユーザ情報データから上記文字データにより示されるID番号のユーザ(画像形成装置10を使用しているユーザ)が特定される。   In the next step 104, it is determined whether or not the character string indicated by the character data obtained by the above processing is registered as the ID number of the user information data. If the determination is affirmative, the process proceeds to step 106. In the case of determination, the routine proceeds to step 114. That is, if the determination in step 104 is affirmative, the user having the ID number indicated by the character data (the user using the image forming apparatus 10) is specified from the user information data.

ステップ106では、カメラ16により撮影を行ってユーザの顔が含まれる画像の画像データを取得し、当該画像データから顔領域を認識して顔パターンデータを生成する。   In step 106, image data of an image including the user's face is obtained by photographing with the camera 16, and a face area is recognized from the image data to generate face pattern data.

ここで、本実施の形態に係る画像形成装置10では、ディスプレイ14に指紋読取部18へ指先をタッチさせることを促すメッセージを表示している。   Here, in the image forming apparatus 10 according to the present exemplary embodiment, a message prompting the user to touch the fingerprint reading unit 18 with the fingertip is displayed on the display 14.

そこで、次のステップ108では、ユーザの指先が指紋読取部18にタッチされることによる指紋パターンデータの取得待ちを行い、次のステップ110では、以上の処理によって得られた顔パターンデータにより示される顔パターン及び指紋パターンデータにより示される指紋パターンと、ユーザ情報テーブル70のステップ104において特定したユーザの顔パターンデータにより示される顔パターン及び指紋パターンデータにより示される指紋パターンと、をパターンマッチングを行う。次のステップ112では、パターンマッチングの結果、ユーザ情報テーブル70に登録されているユーザと同一人物であるか否かを判定し、肯定判定の場合はステップ116へ移行し、否定判定の場合はステップ114へ移行する。すなわち、ユーザ情報テーブル70を用いたパターンマッチングが一致した否かにより、ユーザが画像形成装置10を操作してよい正当なユーザであるか否かを認証している。   Therefore, in the next step 108, the process waits for fingerprint pattern data to be acquired when the user's fingertip touches the fingerprint reading unit 18, and in the next step 110, it is indicated by the face pattern data obtained by the above processing. Pattern matching is performed between the fingerprint pattern indicated by the face pattern and the fingerprint pattern data and the face pattern indicated by the user face pattern data specified in step 104 of the user information table 70 and the fingerprint pattern indicated by the fingerprint pattern data. In the next step 112, it is determined as a result of pattern matching whether or not the user is the same person as the user registered in the user information table 70. If the determination is affirmative, the process proceeds to step 116. If the determination is negative, the process proceeds to step 116. 114. That is, whether or not the user is a valid user who can operate the image forming apparatus 10 is authenticated based on whether or not the pattern matching using the user information table 70 matches.

ステップ114では、ディスプレイ14にユーザの認証ができない旨のエラーメッセージを表示し、その後に上記ステップ110へ戻る。   In step 114, an error message indicating that the user cannot be authenticated is displayed on the display 14, and then the process returns to step 110.

一方、ステップ116では、ユーザ情報テーブル70から認証したユーザの操作許可設定、画面表示設定を読み出し、これらによって設定されている内容に基づいてディスプレイ14に表示する操作画面の状態を設定し、その後に本認証/画面設定処理プログラムを終了する。   On the other hand, in step 116, the operation permission setting and screen display setting of the authenticated user are read from the user information table 70, and the state of the operation screen displayed on the display 14 is set based on the contents set by these settings. The authentication / screen setting processing program is terminated.

このように、本実施の形態に係る認証/画面設定処理によれば、顔パターンと指紋パターンを用いてユーザの認証を行っているため、セキュリティを向上させることができる。また、ユーザ毎に操作可能な機能を制限することができ、ユーザに応じた適切な機能を提供することができる。   As described above, according to the authentication / screen setting processing according to the present embodiment, the user is authenticated using the face pattern and the fingerprint pattern, so that the security can be improved. Moreover, the function which can be operated for every user can be restrict | limited and the suitable function according to the user can be provided.

次に、図6を参照して、特定情報付加機能を実行する際の画像形成装置10の作用を説明する。なお、図6は、所定のタイミング(ここでは、ユーザが原稿画像を所定の読込位置に載置し、複写の操作指示を行うタイミング)でCPU40によって実行される特定情報付加/プリント処理プログラムの処理の流れを示すフローチャ−トであり、当該プログラムも、ROM42の所定の領域に予め記憶されている。   Next, the operation of the image forming apparatus 10 when executing the specific information adding function will be described with reference to FIG. FIG. 6 shows the processing of the specific information addition / print processing program executed by the CPU 40 at a predetermined timing (here, the timing at which the user places a document image at a predetermined reading position and issues a copy operation instruction). The program is also stored in a predetermined area of the ROM 42 in advance.

同図のステップ150では、ユーザによって声による操作指示がマイク17から行われか、あるいは、ディスプレイ14に表示されている操作画面に対してタッチ操作による操作指示が行われたか否かを判定し、肯定判定の場合はステップ152へ移行し、否定判定の場合はステップ150へ戻る。   In step 150 of the figure, it is determined whether an operation instruction by voice is performed by the user from the microphone 17 or an operation instruction by touch operation is performed on the operation screen displayed on the display 14. If the determination is affirmative, the process proceeds to step 152. If the determination is negative, the process returns to step 150.

ステップ152では、操作指示がマイク17からなされたものか否か判定し、肯定判定の場合はステップ154へ移行し、否定判定の場合はステップ156へ移行する。   In step 152, it is determined whether or not an operation instruction is issued from the microphone 17. If the determination is affirmative, the process proceeds to step 154. If the determination is negative, the process proceeds to step 156.

ステップ154では、マイク17より出力されたアナログ音声信号を音声データ変換部64でデジタル音声データに変換し、音声認識プログラムにより当該デジタル音声データを文字データに変換する。そして、変換した文字データから指示情報テーブル72に登録されている文字列を検索することにより音声データによる操作指示の内容を把握する。すなわち、例えば、ユーザが声でマイク17に向かって「3枚、カラーコピー」と発声した場合、操作指示としてスキャナ11から原稿画像を読み込み、読み込んだ画像を記録用紙へ3枚フルカラーでプリントすることを指示されたものと判断する。   In step 154, the analog voice signal output from the microphone 17 is converted into digital voice data by the voice data converter 64, and the digital voice data is converted into character data by a voice recognition program. Then, the contents of the operation instruction by the voice data are grasped by searching the character string registered in the instruction information table 72 from the converted character data. That is, for example, when the user utters “three sheets, color copy” into the microphone 17 as a voice, the original image is read from the scanner 11 as an operation instruction, and the read image is printed in full color on a recording sheet. Is determined to have been instructed.

次のステップ156では、ディスプレイ14に表示されている操作画面に対してタッチ操作がなされて、操作入力検出部46を介して取得した操作指示、又は、マイク17から声により入力された操作指示が、上述した認証/画面設定処理により認証したユーザに対応するユーザ情報テーブル70の操作許可設定で許可されているか否かを判定し、肯定判定の場合はステップ160へ移行し、否定判定の場合はステップ158へ移行する。この処理は、マイク17からの声により許可されていない操作指示が入力される場合があることに対応するものである。   In the next step 156, a touch operation is performed on the operation screen displayed on the display 14, and an operation instruction acquired via the operation input detection unit 46 or an operation instruction input by voice from the microphone 17 is received. Then, it is determined whether or not the operation is permitted by the operation permission setting of the user information table 70 corresponding to the user authenticated by the authentication / screen setting process described above. If the determination is affirmative, the process proceeds to step 160; Control goes to step 158. This process corresponds to the case where an operation instruction that is not permitted by the voice from the microphone 17 may be input.

ステップ158では、許可されていない操作指示であることを示すエラーメッセージをディスプレイ14に表示し、その後にステップ150に戻る。   In step 158, an error message indicating that the operation instruction is not permitted is displayed on the display 14, and then the process returns to step 150.

一方、ステップ160では、スキャナ11を動作させて原稿画像の読み込みを行い、原稿画像の画像データを取得する。   On the other hand, in step 160, the scanner 11 is operated to read the original image, and the image data of the original image is acquired.

次のステップ162では、取得した画像データに対して上述した認証/画面設定処理プログラムにより認証したユーザのID番号及び氏名を付加すると共に、ユーザによるプリント操作の指示内容を示す操作指示データを付加する。この操作指示データは、例えば、ユーザがマイク17に「3枚、カラーコピー」と発声した場合、画像データにより示される画像を3枚の記録用紙へプリントさせるための制御情報となる。なお、本実施の形態に係る特定情報付加/プリント処理では、画像データを記録用紙にプリントする場合について説明しているが、画像データを、例えば、PDFなどの画像データ及び文字データにより構成された電子化ファイルに変換してネットワーク20へ出力する場合、電子化ファイルに対してID番号及び氏名と操作指示データを付加すればよい。この電子化ファイルにID番号及び氏名を付加することにより、当該電子化ファイルがどのユーザにより生成されたかを特定することができる
次のステップ164では、画像データに付加されたID番号及び氏名を読み出して、当該画像データにより示される画像の所定領域に視認可能な大きさでID番号及び氏名を示す画像が合成された状態となる合成画像データを生成する。なお、上記所定領域は画像データにより示される画像の4隅の何れかの領域で、画像データにより示される画像の絵柄や文字と重ならない領域をとすることが好ましい。
In the next step 162, the ID number and name of the user authenticated by the above-described authentication / screen setting processing program are added to the acquired image data, and operation instruction data indicating the content of the print operation instruction by the user is added. . For example, when the user utters “3 sheets, color copy” to the microphone 17, the operation instruction data becomes control information for printing the image indicated by the image data on three recording sheets. In the specific information addition / print processing according to the present embodiment, the case where image data is printed on a recording sheet has been described. However, the image data is composed of image data such as PDF and character data, for example. When converting to a digitized file and outputting it to the network 20, an ID number, name, and operation instruction data may be added to the digitized file. By adding the ID number and name to this digitized file, it is possible to specify which user generated the digitized file. In the next step 164, the ID number and name added to the image data are read. Thus, composite image data is generated in which an image indicating the ID number and name is combined in a size that can be visually recognized in a predetermined area of the image indicated by the image data. The predetermined area is preferably an area at any one of the four corners of the image indicated by the image data and an area that does not overlap the pattern or character of the image indicated by the image data.

次のステップ166では、ステップ164で生成された合成画像データに基づいて、画像データに付加された操作指示データにより示される指示内容に応じて画像形成エンジン部15を制御して記録用紙に画像をプリントし、その後に本特定情報付加/プリント処理プログラムを終了する。   In the next step 166, based on the composite image data generated in step 164, the image forming engine unit 15 is controlled according to the instruction content indicated by the operation instruction data added to the image data, and the image is recorded on the recording paper. Then, the specific information addition / print processing program is terminated.

このように、本実施の形態に係る特定情報付加/プリント処理プログラムによれば、記録用紙に画像データに基づく画像と共にID番号及び氏名がプリントされるため、プリントされた記録用紙からどのユーザよりプリント指示がされたかを特定することができる。すなわちユーザは、プリントした記録用紙にユーザ自身のID番号、氏名がプリントされているため、不用意に配布しないように注意を促すことができ、セキュリティが向上する。また、画像データにプリントを行うための操作指示データが付加されているため、画像データのみからプリントを行うための制御情報を取得でき、他から制御情報を受ける必要がなくなるため、プリントを行うための制御が容易となる。よって、例えば、画像データを他の画像形成装置10へ転送してを他の画像形成装置10でプリントする場合でも、画像データに付加された操作指示データに基づいてプリントを行うことができる。   As described above, according to the specific information addition / print processing program according to the present embodiment, the ID number and name are printed together with the image based on the image data on the recording sheet. It is possible to specify whether an instruction has been given. That is, since the user's own ID number and name are printed on the printed recording paper, the user can be alerted not to inadvertently distribute the information, and security is improved. In addition, since operation instruction data for printing is added to the image data, control information for printing can be acquired from only the image data, and it is not necessary to receive control information from other, so printing is performed. It becomes easy to control. Therefore, for example, even when image data is transferred to another image forming apparatus 10 and printed by another image forming apparatus 10, printing can be performed based on operation instruction data added to the image data.

以上のように本実施の形態に係る画像形成装置10では、指示入力手段(ここでは、マイク17及びディスプレイ14)は、画像データ及び文字データの少なくとも一方を含んで構成された文書データによる、記録用紙へのプリント動作を含む出力動作の指示を入力し、取得手段(ここでは、マイク17)は、特定情報生成手段(ここでは、ユーザ特定部82)は、前記出力動作の指示を入力するユーザを識別するための識別情報を取得し、前記取得手段により取得された前記識別情報に基づいて前記ユーザを特定するユーザ特定情報を生成し、付加手段(ここでは、情報付加部88)は、前記特定情報生成手段により生成された前記ユーザ特定情報を前記文書データに付加しているので、ユーザに対してユーザ自身の出力指示により出力された文書データへの注意を促すことができ、この結果として文書の不用意な外部への流出を防止することができる。   As described above, in the image forming apparatus 10 according to the present exemplary embodiment, the instruction input unit (here, the microphone 17 and the display 14) is recorded by document data including at least one of image data and character data. An instruction for an output operation including a print operation on paper is input, and an acquisition unit (here, the microphone 17) is a specific information generation unit (here, a user specifying unit 82) is a user who inputs the instruction for the output operation. Identifying information for identifying the user, generating user specifying information for identifying the user based on the identification information acquired by the acquiring means, and adding means (here, the information adding unit 88) Since the user specific information generated by the specific information generating means is added to the document data, it is output according to the user's own output instruction to the user. Note to the document data can be urged to have, it is possible to prevent inadvertent flowing outside of the document as a result.

また、合成画像生成手段(ここでは、画像合成部90)は、前記文書データにより示される文書画像と当該文書データに付加された前記ユーザ特定情報により示される画像とを合成した合成画像を生成し、プリント手段(ここでは、画像形成エンジン部54)は、前記指示入力によって前記プリント動作の指示が入力されたときに、前記合成画像生成手段により生成された前記合成画像を記録用紙へプリントしているので、記録用紙にユーザ特定情報がプリントされる。このため、プリントされたユーザ特定情報に基づいて出力動作を指示したユーザを特定することができる。よって、ユーザに対してユーザ自身の出力指示によりプリントされた記録用紙への注意を促すこととなり、セキュリティを高めることができる
また、前記付加手段は、前記指示入力手段により前記出力動作の指示として、当該出力の条件を示す条件情報も入力された場合に、当該条件情報を前記文書データにさらに付加し、前記プリント手段は、前記文書データに付加された前記出力指示情報により示される指示内容に応じてプリントを行っているので、他から制御情報を受けることなく文書データに付加された出力指示情報のみに基づいて出力制御を行うことができ、制御が容易となる。
The composite image generation means (here, the image composition unit 90) generates a composite image by combining the document image indicated by the document data and the image indicated by the user specifying information added to the document data. The printing means (here, the image forming engine unit 54) prints the composite image generated by the composite image generation means on a recording sheet when the instruction of the printing operation is input by the instruction input. Therefore, the user specific information is printed on the recording paper. For this reason, the user who instructed the output operation can be specified based on the printed user specifying information. Therefore, the user is urged to pay attention to the recording paper printed by the user's own output instruction, and the security can be improved. Further, the adding means uses the instruction input means as an instruction of the output operation, When the condition information indicating the output condition is also input, the condition information is further added to the document data, and the printing unit responds to the instruction content indicated by the output instruction information added to the document data. Since printing is performed, output control can be performed based only on the output instruction information added to the document data without receiving control information from others, and control becomes easy.

また、前記取得手段を、前記ユーザの声により入力されたID情報(ID番号)を示す音声データを取得するものとし、変換手段(ここでは、音声認識部80)は、前記取得手段により取得された前記音声データに対する音声認識を行って、前記ID情報を文字データに変換し、記憶手段(ここでは、HDD56)は、予め定められたユーザの名前及びID情報を含むユーザ情報データが予め記憶しており、前記特定情報生成手段は、前記変換手段により文字データに変換されたID情報と前記ユーザ情報データに含まれるID情報とを照合して前記出力動作の指示を入力するユーザを特定し、特定したユーザの名前及びID情報の少なくとも一方を含むものとして前記ユーザ特定情報を生成しているので、ID番号の入力を声により行うことができ、入力操作が容易となる。   In addition, the acquisition unit acquires voice data indicating ID information (ID number) input by the user's voice, and the conversion unit (here, the voice recognition unit 80) is acquired by the acquisition unit. The voice information is recognized, and the ID information is converted into character data. The storage means (here, the HDD 56) stores user information data including a predetermined user name and ID information in advance. And the specific information generating means specifies the user who inputs the instruction of the output operation by comparing the ID information converted into character data by the converting means and the ID information included in the user information data, Since the user identification information is generated as including at least one of the identified user name and ID information, the ID number can be input by voice. Can be, input operation is facilitated.

前記取得手段(ここでは、カメラ16及び指紋読取部18)を前記ユーザの顔の特徴を示す顔特徴データ(顔パターンデータ)及び前記ユーザの指紋の特徴を示す指紋特徴データ(指紋パターンデータ)を更に取得するものとし、前記ユーザ情報データは、前記予め定められたユーザの顔特徴データと指紋特徴データとをさらに含み、前記特定情報生成手段は、前記取得手段により取得された顔特徴データ及び指紋特徴データと、前記ユーザ情報データに含まれる、前記変換手段により文字データに変換されたID情報に対応する顔特徴データ及び指紋特徴データと、を照合して前記ユーザの特定を行っているので、セキュリティがより向上する
また、前記ユーザ情報データは、前記予め定められたユーザ毎に前記記録用紙へのプリントをカラーで行うか、当該プリントを白黒で行うか、当該プリントを不許可とするかを示すプリント動作情報をさらに含み、表示手段(ここで、ディスプレイ14)は、プリントの操作指示を入力するための操作画面を表示し、表示設定手段(ここでは、操作画面制御部84)は、前記特定情報生成手段により特定された前記ユーザに対応する前記プリント動作情報に基づいて前記表示手段に表示する前記操作画面の表示内容を設定しているので、ユーザ毎にディスプレイ14に表示する操作画面の操作可能な機能を設定して、ユーザ毎に操作可能な機能を変更することができる。
The acquisition means (here, the camera 16 and the fingerprint reading unit 18) receives facial feature data (face pattern data) indicating the facial features of the user and fingerprint feature data (fingerprint pattern data) indicating the features of the user's fingerprint. Further, the user information data further includes the predetermined user face feature data and fingerprint feature data, and the specific information generating means includes the face feature data and fingerprint obtained by the obtaining means. Since the user is identified by collating feature data and face feature data and fingerprint feature data corresponding to ID information included in the user information data and converted into character data by the conversion means, Security is further improved. The user information data can be printed on the recording paper for each predetermined user. Printing operation information indicating whether the printing is to be performed by the printer, the printing is to be performed in black and white, or the printing is not permitted, and the display means (here, the display 14) The operation screen is displayed, and the display setting unit (here, the operation screen control unit 84) displays the operation on the display unit based on the print operation information corresponding to the user specified by the specific information generation unit. Since the display content of the screen is set, it is possible to set the operable function of the operation screen displayed on the display 14 for each user, and change the operable function for each user.

さらに、前記ユーザ情報データは、前記予め定められてたユーザ毎に表示される文字を拡大するか否かを示す文字表示情報をさらに含み、表示手段は、所定の操作画面を表示し、表示設定手段は、前記特定情報生成手段により特定された前記ユーザに対応する前記文字表示情報に基づいて前記表示手段に表示する前記操作画面の文字の大きさを設定しているので、操作画面の文字の大きさをユーザに応じたものに変更することができ、操作画面の見易さが向上する。   Further, the user information data further includes character display information indicating whether or not to enlarge a character displayed for each predetermined user, and the display means displays a predetermined operation screen, and displays settings. The means sets the character size of the operation screen to be displayed on the display means based on the character display information corresponding to the user specified by the specific information generation means. The size can be changed according to the user, and the visibility of the operation screen is improved.

なお、本実施の形態では、カメラ16によりユーザの顔を撮影して顔パターンを生成すると共に指紋読取部18によりユーザの指紋パターンを取得してユーザ認証を行う構成を示したが、例えば、カメラ16、指紋読取部18、カメラ制御部62、指紋読取制御部66、顔パターン生成部81の少なくとも1つを除いた構成としてもよい。カメラ16、カメラ制御部62、顔パターン生成部81の何れかを除いた場合は、指紋パターンでのみユーザ認証を行う構成とすればよい。指紋読取部18、指紋読取制御部66の何れかを除いた場合は、顔パターンでのみユーザ認証を行う構成とすればよい。また、カメラ16、指紋読取部18、カメラ制御部62、指紋読取制御部66、顔パターン生成部81を除いた場合は、マイク17から声で入力されたID番号に対応するID番号がユーザ情報テーブル70に存在するか否かでユーザ認証を行えばよい。   In the present embodiment, a configuration is shown in which a user's face is generated by the camera 16 to generate a face pattern and the fingerprint reading unit 18 acquires the user's fingerprint pattern and performs user authentication. 16, the fingerprint reading unit 18, the camera control unit 62, the fingerprint reading control unit 66, and the face pattern generation unit 81 may be omitted. When any one of the camera 16, the camera control unit 62, and the face pattern generation unit 81 is excluded, the user authentication may be performed only with the fingerprint pattern. When either the fingerprint reading unit 18 or the fingerprint reading control unit 66 is omitted, the user authentication may be performed only with the face pattern. When the camera 16, the fingerprint reading unit 18, the camera control unit 62, the fingerprint reading control unit 66, and the face pattern generation unit 81 are excluded, the ID number corresponding to the ID number input from the microphone 17 by voice is the user information. User authentication may be performed based on whether or not the table 70 exists.

また、本実施の形態では、ユーザがID番号として数字を入力する場合について説明したが、本発明はこれに限定されるものではなく、例えば、数字や文字を組み合わせてID情報として構成してもよい。   In the present embodiment, the case where the user inputs a number as an ID number has been described. However, the present invention is not limited to this, and for example, a combination of numbers and characters may be configured as ID information. Good.

また、本実施の形態では、ユーザがID番号をマイク17から声により入力する場合について説明したが、本発明はこれに限定されるものではなく、例えば、ディスプレイ14にテンキーを表示してディスプレイ14にタッチ操作することによりID番号を入力したり、装置本体12にテンキーボタンを備えた操作パネルを設けて、当該た操作パネルを用いてID番号を入力する形態とすることもできる。この場合も本実施の形態と同様にディスプレイ14へのタッチ操作、あるいは、操作パネルのテンキーへのボタン操作により入力されたID番号とユーザ情報テーブル70のID番号に登録されているか否かを判定すればよい。   In the present embodiment, the case where the user inputs the ID number by voice from the microphone 17 has been described. However, the present invention is not limited to this. For example, the numeric keypad is displayed on the display 14 and the display 14 is displayed. It is also possible to enter an ID number by performing a touch operation, or to provide an operation panel having a numeric keypad on the apparatus main body 12 and input the ID number using the operation panel. Also in this case, as in the present embodiment, it is determined whether or not the ID number input by the touch operation on the display 14 or the button operation on the numeric keypad of the operation panel and the ID number of the user information table 70 are registered. do it.

また、本実施の形態では、ユーザ特定情報をユーザのID番号、名前とした場合について説明したが、本発明はこれに限定されるものではなく、例えば、電話番号やメールアドレス等、その情報に基づいてユーザを特定できる情報であればよい。この場合も、本実施の形態と同様の効果を奏することができる。   In the present embodiment, the case where the user identification information is the user ID number and the name has been described. However, the present invention is not limited to this. For example, the information such as a telephone number or an e-mail address is included in the information. Any information that can identify the user based on the information may be used. Also in this case, the same effects as in the present embodiment can be obtained.

また、本実施の形態では、スキャナ11により読み込んだ画像データを記録用紙へプリントする場合について説明したが、本発明はこれに限定されるものではなく、例えば、予め、端末装置22からファイル転送された文書データをHDD56に記憶しておき、当該画像データをユーザからの操作指示に応じて記録用紙にプリントし、あるいは、他の端末装置へファイル転送や電子メールに添付して送信する場合に、操作指示を行ったユーザを特定できるユーザ特定情報を文書データに付加してもよい。この場合も、本実施の形態と同様の効果を奏することができる。   In the present embodiment, the case where the image data read by the scanner 11 is printed on the recording paper has been described. However, the present invention is not limited to this, and for example, the file is transferred from the terminal device 22 in advance. The document data is stored in the HDD 56, and the image data is printed on a recording sheet in response to an operation instruction from the user, or is sent to another terminal device as a file transfer or attached to an e-mail. User specifying information that can specify the user who has given the operation instruction may be added to the document data. Also in this case, the same effects as in the present embodiment can be obtained.

また、本実施の形態では、操作許可設定として、ユーザ毎にプリントについて「不許可」、「カラー」、「白黒」と操作制限を行う設定について説明したが、本発明はこれに限定されるものではなく、例えば、ユーザ情報テーブル70にユーザ毎に、ファクシミリの送信の許可/不許可、原稿画像をスキャナ11で読み取って作成した文書データの電子化ファイルのファイル転送の許可/不許可、文書データの電子化ファイルの電子メールに添付しての送信の送信の許可/不許可、スキャナ11による原稿画像の読み取りの許可/不許可、画像形成装置10の電源オン、オフ操作の許可/不許可、を追加してそれぞれの許可されている設定のみを行えるようにしてもよい。これにより、ユーザ毎に画像形成装置10の使用できる機能を制限できるため、セキュリティが向上する。この場合、操作画面制御部84においてディスプレイ14に表示される操作画面をユーザ毎に使用可能か機能のみの構成とすることが好ましい。   Further, in the present embodiment, the operation permission setting has been described with respect to the setting for performing operation restriction such as “non-permission”, “color”, and “monochrome” for each user, but the present invention is not limited to this. Instead, for example, for each user in the user information table 70, permission / non-permission of facsimile transmission, permission / non-permission of file transfer of an electronic file of document data created by reading a document image with the scanner 11, document data Transmission / non-permission of transmission attached to the e-mail of the digitized file, permission / non-permission of reading of the original image by the scanner 11, power on / off of the image forming apparatus 10, permission / non-permission of the off operation, May be added so that only permitted settings can be made. As a result, the functions that can be used by the image forming apparatus 10 can be restricted for each user, so that security is improved. In this case, it is preferable that the operation screen displayed on the display 14 in the operation screen control unit 84 can be used for each user or has only a function.

また、ユーザ情報テーブル70にユーザ毎に、1回のプリントで指定可能な最大枚数、白黒やカラープリントを行った際に課金を行うか否か(例えば、カラープリントを行った場合、1枚30円を課金し、ユーザ毎に課金データとして蓄積する。)を追加してもよい。これにより、ユーザ毎に1回のプリントで指定可能な記録媒体の枚数を制限したり、使用量応じて課金を行うことができる。   In addition, whether or not to charge for the maximum number of sheets that can be specified in one printing, monochrome or color printing for each user in the user information table 70 (for example, 30 sheets for color printing) You may add a fee to charge a yen and store it as charging data for each user. Accordingly, it is possible to limit the number of recording media that can be designated by one printing for each user, or to charge for the amount of use.

また、本実施の形態では、画面表示設定として、ユーザ毎にディスプレイ14に表示される操作画面の文字の大きさの設定を行う場合について説明したが、本発明はこれに限定されるものではなく、例えば、ユーザ情報テーブル70にユーザ毎に、子供であるか、外国人であるか、老眼であるかの設定を各々追加し、操作画面制御部84において、子供と設定されている場合はディスプレイ14に表示される操作画面の文字をひらがなに変更し、外国人と設定されている場合はディスプレイ14に表示される操作画面に表示されるメッセージを外国語(例えば、英語)に変更し、老眼と設定されている場合はディスプレイ14に表示される文字のフォントを大きくするようにしてもよい。また、ユーザ情報テーブル70にユーザ毎に、性別や、年齢の設定を追加し、操作画面制御部84において、性別に設定されている内容に応じてディスプレイ14に表示される操作画面の色を変えたり(例えば、女性であれば、操作画面の背景をピンク色)、年齢が一定以上(例えば、60歳以上)の場合にディスプレイ14に表示される操作画面の文字のフォントを大きくするようにしてもよい。これにより、ディスプレイ14にユーザに適した操作画面を表示することができるため、操作性が向上する。   In the present embodiment, the case has been described in which the character size of the operation screen displayed on the display 14 is set for each user as the screen display setting. However, the present invention is not limited to this. For example, for each user, a setting indicating whether the user is a child, a foreigner, or presbyopia is added to the user information table 70. 14 changes the characters displayed on the operation screen to hiragana, and if it is set as a foreigner, the message displayed on the operation screen displayed on the display 14 is changed to a foreign language (for example, English), and presbyopia May be set to enlarge the font of characters displayed on the display 14. Also, sex and age settings are added to the user information table 70 for each user, and the operation screen controller 84 changes the color of the operation screen displayed on the display 14 according to the content set by sex. (For example, if you are a woman, the background of the operation screen is pink) If the age is above a certain level (for example, 60 years or older), the font of the characters on the operation screen displayed on the display 14 should be increased. Also good. Thereby, since the operation screen suitable for the user can be displayed on the display 14, operability is improved.

また、本実施の形態では、ユーザ情報テーブル70にユーザ毎に操作許可設定、画面表示設定等の各種の設定を設けた場合について説明したが、本発明はこれに限定されるものではなく、例えば、複数のグループを予め設け、ユーザを何れかのグループに登録し、グループ毎に各種の設定を行うようにしてもよい。これにより、各ユーザ毎に個別に設定を行う必要がなくなるため、設定操作が容易となる。   In the present embodiment, the case where various settings such as operation permission settings and screen display settings are provided for each user in the user information table 70 has been described. However, the present invention is not limited to this, for example, A plurality of groups may be provided in advance, the user may be registered in any group, and various settings may be performed for each group. This eliminates the need for individual settings for each user, facilitating setting operations.

さらに、本実施の形態では、スキャナ11により読み取った画像を文章データに変換する場合について説明したが、本発明はこれに限定されるものではなく、例えば、ユーザ情報テーブル70にユーザ毎に老眼であるかの設定を追加し、老眼と設定された場合に文書データに含まれる文字データのフォントを大きくして文字サイズを大きくするように変更してもよい。   Furthermore, in the present embodiment, the case where an image read by the scanner 11 is converted into text data has been described. However, the present invention is not limited to this. For example, the user information table 70 is presbyopia for each user. If some setting is added, and the presbyopia is set, the font of the character data included in the document data may be increased so as to increase the character size.

その他、本実施の形態で説明した画像形成装置10の構成(図1、図2、図4参照。)は、一例であり、本発明の主旨を逸脱しない範囲内において適宜変更可能であることは言うまでもない。   In addition, the configuration of the image forming apparatus 10 described in the present embodiment (see FIGS. 1, 2, and 4) is an example, and can be appropriately changed without departing from the gist of the present invention. Needless to say.

また、本実施の形態で説明した認証/画面設定処理、特定情報付加/プリント処理の処理の流れ(図5、図6参照。)も一例であり、本発明の主旨を逸脱しない範囲内において適宜変更可能であることは言うまでもない。   Further, the processing flow of the authentication / screen setting process and the specific information addition / print process (see FIGS. 5 and 6) described in this embodiment is also an example, and is appropriately selected within the scope not departing from the gist of the present invention. Needless to say, it can be changed.

さらに、本実施の形態で説明したユーザ情報テーブル(図4参照。)も一例であり、本発明の主旨を逸脱しない範囲内において適宜変更可能であることは言うまでもない。   Furthermore, the user information table (see FIG. 4) described in the present embodiment is also an example, and it is needless to say that the user information table can be changed as appropriate without departing from the gist of the present invention.

実施の形態に係る画像形成装置の構成図である。1 is a configuration diagram of an image forming apparatus according to an embodiment. 実施の形態に係る画像形成装置の電気系の要部構成を示すブロック図である。1 is a block diagram illustrating a configuration of a main part of an electric system of an image forming apparatus according to an embodiment. 実施の形態に係るユーザ情報テーブルとして設定される情報を示す模式図である。It is a schematic diagram which shows the information set as a user information table which concerns on embodiment. 実施の形態に係る画像形成装置の機能的な構成を示すブロック図である。1 is a block diagram illustrating a functional configuration of an image forming apparatus according to an embodiment. 実施の形態に係る認証/画面設定処理の処理の流れを示すフローである。It is a flow which shows the flow of a process of the authentication / screen setting process which concerns on embodiment. 実施の形態に係る特定情報付加/プリント処理の処理の流れを示すフローである。It is a flow which shows the flow of the process of the specific information addition / print process which concerns on embodiment.

符号の説明Explanation of symbols

10 画像形成装置
14 ディスプレイ
15 画像形成エンジン部
17 マイク
18 指紋読取部
40 CPU
46 操作入力検出部
50 画像形成エンジン部
56 HDD
80 音声認識部
81 顔パターン生成部
82 ユーザ特定部
84 操作画面制御部
88 情報付加部
90 画像合成部
DESCRIPTION OF SYMBOLS 10 Image forming apparatus 14 Display 15 Image forming engine part 17 Microphone 18 Fingerprint reading part 40 CPU
46 Operation Input Detection Unit 50 Image Forming Engine Unit 56 HDD
80 voice recognition unit 81 face pattern generation unit 82 user identification unit 84 operation screen control unit 88 information addition unit 90 image synthesis unit

Claims (8)

画像データ及び文字データの少なくとも一方を含んで構成された文書データによる、記録用紙へのプリント動作を含む出力動作の指示を入力する指示入力手段と、
前記出力動作の指示を入力するユーザを識別するための識別情報を取得する取得手段と、
前記取得手段により取得された前記識別情報に基づいて前記ユーザを特定するユーザ特定情報を生成する特定情報生成手段と、
前記特定情報生成手段により生成された前記ユーザ特定情報を前記文書データに付加する付加手段と、
を備えた画像形成装置。
An instruction input means for inputting an instruction of an output operation including a printing operation on a recording sheet by using document data including at least one of image data and character data;
Obtaining means for obtaining identification information for identifying a user who inputs an instruction for the output operation;
Specific information generating means for generating user specifying information for specifying the user based on the identification information acquired by the acquiring means;
An adding means for adding the user specifying information generated by the specifying information generating means to the document data;
An image forming apparatus.
前記文書データにより示される文書画像と当該文書データに付加された前記ユーザ特定情報により示される画像とを合成した合成画像を生成する合成画像生成手段と、
前記指示入力によって前記プリント動作の指示が入力されたときに、前記合成画像生成手段により生成された前記合成画像を記録用紙へプリントするプリント手段と、
をさらに備えた請求項1記載の画像形成装置。
A composite image generating means for generating a composite image obtained by combining the document image indicated by the document data and the image indicated by the user specifying information added to the document data;
Printing means for printing the composite image generated by the composite image generation means on a recording paper when an instruction for the print operation is input by the instruction input;
The image forming apparatus according to claim 1, further comprising:
前記付加手段は、前記指示入力手段により前記出力動作の指示として、当該出力の条件を示す条件情報も入力された場合に、当該条件情報を前記文書データにさらに付加し、
前記プリント手段は、前記文書データに付加された前記出力指示情報により示される指示内容に応じてプリントを行う
請求項2記載の画像形成装置。
The adding means further adds the condition information to the document data when condition information indicating an output condition is also input as an instruction of the output operation by the instruction input means,
The image forming apparatus according to claim 2, wherein the printing unit performs printing in accordance with an instruction content indicated by the output instruction information added to the document data.
前記取得手段を、前記ユーザの声により入力されたID情報を示す音声データを取得するものとし、
前記取得手段により取得された前記音声データに対する音声認識を行って、前記ID情報を文字データに変換する変換手段と、
予め定められたユーザの名前及びID情報を含むユーザ情報データが予め記憶された記憶手段と、
をさらに備え、
前記特定情報生成手段は、前記変換手段により文字データに変換されたID情報と前記ユーザ情報データに含まれるID情報とを照合して前記出力動作の指示を入力するユーザを特定し、特定したユーザの名前及びID情報の少なくとも一方を含むものとして前記ユーザ特定情報を生成する
請求項1乃至請求項3記載の何れか1項記載の画像形成装置。
The acquisition means acquires audio data indicating ID information input by the voice of the user,
Conversion means for performing voice recognition on the voice data acquired by the acquisition means and converting the ID information into character data;
Storage means for storing user information data including a predetermined user name and ID information in advance;
Further comprising
The specific information generating means specifies the user who inputs the instruction for the output operation by collating the ID information converted into character data by the conversion means and the ID information included in the user information data, and specifies the specified user The image forming apparatus according to claim 1, wherein the user specifying information is generated as including at least one of name and ID information.
前記取得手段を前記ユーザの顔の特徴を示す顔特徴データ及び前記ユーザの指紋の特徴を示す指紋特徴データを更に取得するものとし、
前記ユーザ情報データは、前記予め定められたユーザの顔特徴データと指紋特徴データとをさらに含み、
前記特定情報生成手段は、前記取得手段により取得された顔特徴データ及び指紋特徴データと、前記ユーザ情報データに含まれる、前記変換手段により文字データに変換されたID情報に対応する顔特徴データ及び指紋特徴データと、を照合して前記ユーザの特定を行う
請求項4記載の画像形成装置。
The acquisition means further acquires facial feature data indicating the facial features of the user and fingerprint feature data indicating the features of the user's fingerprint;
The user information data further includes facial feature data and fingerprint feature data of the predetermined user,
The specific information generating unit includes facial feature data and fingerprint feature data acquired by the acquiring unit, and facial feature data corresponding to ID information included in the user information data and converted into character data by the converting unit; The image forming apparatus according to claim 4, wherein the user is identified by collating with fingerprint feature data.
前記ユーザ情報データは、前記予め定められたユーザ毎に前記記録用紙へのプリントをカラーで行うか、当該プリントを白黒で行うか、当該プリントを不許可とするかを示すプリント動作情報をさらに含み、
プリントの操作指示を入力するための操作画面を表示する表示手段と、
前記特定情報生成手段により特定された前記ユーザに対応する前記プリント動作情報に基づいて前記表示手段に表示する前記操作画面の表示内容を設定する表示設定手段と、
をさらに備えた請求項4又は請求項5記載の画像形成装置。
The user information data further includes print operation information indicating whether the printing on the recording paper is performed in color, the printing is performed in black and white, or the printing is not permitted for each predetermined user. ,
Display means for displaying an operation screen for inputting a print operation instruction;
Display setting means for setting display contents of the operation screen to be displayed on the display means based on the print operation information corresponding to the user specified by the specific information generating means;
The image forming apparatus according to claim 4, further comprising:
前記ユーザ情報データは、前記予め定められてたユーザ毎に表示される文字を拡大するか否かを示す文字表示情報をさらに含み、
所定の操作画面を表示する表示手段と、
前記特定情報生成手段により特定された前記ユーザに対応する前記文字表示情報に基づいて前記表示手段に表示する前記操作画面の文字の大きさを設定する表示設定手段と、
をさらに備えた請求項4又は請求項5記載の画像形成装置。
The user information data further includes character display information indicating whether to enlarge a character displayed for each predetermined user,
Display means for displaying a predetermined operation screen;
Display setting means for setting a character size of the operation screen displayed on the display means based on the character display information corresponding to the user specified by the specific information generating means;
The image forming apparatus according to claim 4, further comprising:
ユーザからの記録用紙へのプリント動作を含む出力動作の指示により画像データ及び文字データの少なくとも一方を含んで構成された文書データにより示される画像に対する画像処理方法であって、
前記出力動作の指示を入力する前記ユーザを識別するための識別情報を取得し、
取得した前記識別情報に基づいて前記ユーザを特定するユーザ特定情報を生成し、
生成された前記ユーザ特定情報を前記文書データに付加する
画像処理方法。
An image processing method for an image indicated by document data configured to include at least one of image data and character data according to an output operation instruction including a print operation on a recording sheet from a user,
Obtaining identification information for identifying the user who inputs the output operation instruction;
Generating user identification information for identifying the user based on the acquired identification information;
An image processing method for adding the generated user identification information to the document data.
JP2004378110A 2004-12-27 2004-12-27 Image forming apparatus and method of processing image Pending JP2006181874A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004378110A JP2006181874A (en) 2004-12-27 2004-12-27 Image forming apparatus and method of processing image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004378110A JP2006181874A (en) 2004-12-27 2004-12-27 Image forming apparatus and method of processing image

Publications (1)

Publication Number Publication Date
JP2006181874A true JP2006181874A (en) 2006-07-13

Family

ID=36735326

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004378110A Pending JP2006181874A (en) 2004-12-27 2004-12-27 Image forming apparatus and method of processing image

Country Status (1)

Country Link
JP (1) JP2006181874A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109584862A (en) * 2017-09-29 2019-04-05 上海寒武纪信息科技有限公司 Image processing apparatus and method
CN109584864A (en) * 2017-09-29 2019-04-05 上海寒武纪信息科技有限公司 Image processing apparatus and method
JP2019144759A (en) * 2018-02-19 2019-08-29 コニカミノルタ株式会社 Image processing apparatus, image processing apparatus control method, and program
US11645018B2 (en) 2018-09-25 2023-05-09 Kyocera Document Solutions Inc. Information processing apparatus, image forming apparatus outputting message data after person identification

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000207616A (en) * 1999-01-14 2000-07-28 Konica Corp Document issuing device, document issue method and document issue system
JP2000332942A (en) * 1999-05-20 2000-11-30 Nec Corp Printing system by fax equipment for www homepage
JP2002323965A (en) * 2001-04-25 2002-11-08 Murata Mach Ltd Recorder
JP2004062846A (en) * 2002-07-31 2004-02-26 Waimachikku Kk Input device of personal identification device
JP2004112524A (en) * 2002-09-19 2004-04-08 Fuji Xerox Co Ltd Image information accumulating device, method therefor, and document output device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000207616A (en) * 1999-01-14 2000-07-28 Konica Corp Document issuing device, document issue method and document issue system
JP2000332942A (en) * 1999-05-20 2000-11-30 Nec Corp Printing system by fax equipment for www homepage
JP2002323965A (en) * 2001-04-25 2002-11-08 Murata Mach Ltd Recorder
JP2004062846A (en) * 2002-07-31 2004-02-26 Waimachikku Kk Input device of personal identification device
JP2004112524A (en) * 2002-09-19 2004-04-08 Fuji Xerox Co Ltd Image information accumulating device, method therefor, and document output device

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109584862A (en) * 2017-09-29 2019-04-05 上海寒武纪信息科技有限公司 Image processing apparatus and method
CN109584864A (en) * 2017-09-29 2019-04-05 上海寒武纪信息科技有限公司 Image processing apparatus and method
CN109584864B (en) * 2017-09-29 2023-11-24 上海寒武纪信息科技有限公司 Image processing apparatus and method
CN109584862B (en) * 2017-09-29 2024-01-12 上海寒武纪信息科技有限公司 Image processing apparatus and method
JP2019144759A (en) * 2018-02-19 2019-08-29 コニカミノルタ株式会社 Image processing apparatus, image processing apparatus control method, and program
JP7003720B2 (en) 2018-02-19 2022-01-21 コニカミノルタ株式会社 Image processing equipment, image processing equipment control methods, and programs
US11645018B2 (en) 2018-09-25 2023-05-09 Kyocera Document Solutions Inc. Information processing apparatus, image forming apparatus outputting message data after person identification

Similar Documents

Publication Publication Date Title
JP4609773B2 (en) Document data creation apparatus, document data creation method, and control program
JP5127550B2 (en) Image forming apparatus and user authentication method
US8564809B2 (en) Printing system for maintaining confidentiality of print jobs
US7792677B2 (en) Voice guide system and voice guide method thereof
JP2008040981A (en) Program for printing, electronic equipment and control method of electronic equipment
US8630852B2 (en) Image processing apparatus, speech recognition processing apparatus, control method for speech recognition processing apparatus, and computer-readable storage medium for computer program
JP2006330576A (en) Apparatus operation system, speech recognition device, electronic apparatus, information processor, program, and recording medium
JP2006174304A (en) Image forming apparatus and image processing apparatus
US9477434B2 (en) Image forming apparatus, job execution system, and job execution method
JP2009194577A (en) Image processing apparatus, voice assistance method and voice assistance program
JP2005244489A (en) Composite machine
JP2006331258A (en) Translation device, image processor, program, and recording medium
JP7430126B2 (en) Information processing device, printing system, control method and program
US20160182761A1 (en) Image forming apparatus
US9646233B2 (en) Image forming apparatus and non-transitory computer readable recording medium for improved email printing
JP2006181874A (en) Image forming apparatus and method of processing image
JP2004206636A (en) Network printer system and printer therefor
US20200312326A1 (en) Image forming apparatus and job execution method
JP4766035B2 (en) Image output apparatus and program
JP2012118789A (en) Printing system, printing method and printing control apparatus
JP4895025B2 (en) Printer and printer control method
JP2005035294A (en) Image formation system, image formation apparatus and its control method and its control program, control program of information processing apparatus, information processing apparatus and its control method
JP2020038576A (en) Electronic apparatus, image formation apparatus, electronic mail preparation support method and electronic mail preparation support program
JP5474159B2 (en) Apparatus, apparatus control method, and program
JP2005011146A (en) Operation screen display device, operation screen display method and operation screen display program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100420

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100621

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100810