JP2006086755A - Image forming apparatus, image forming method, program for executing its method by computer, image processor, and image processing system - Google Patents

Image forming apparatus, image forming method, program for executing its method by computer, image processor, and image processing system Download PDF

Info

Publication number
JP2006086755A
JP2006086755A JP2004268846A JP2004268846A JP2006086755A JP 2006086755 A JP2006086755 A JP 2006086755A JP 2004268846 A JP2004268846 A JP 2004268846A JP 2004268846 A JP2004268846 A JP 2004268846A JP 2006086755 A JP2006086755 A JP 2006086755A
Authority
JP
Japan
Prior art keywords
item
image
language
setting
space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004268846A
Other languages
Japanese (ja)
Other versions
JP4520262B2 (en
Inventor
Tetsuya Sakayori
哲也 酒寄
Tetsuya Muroi
哲也 室井
Junichi Takami
淳一 鷹見
Yoshinaga Kato
喜永 加藤
Iwao Saeki
巌 佐伯
Yoshibumi Sakuramata
義文 櫻又
Akira Ro
彬 呂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2004268846A priority Critical patent/JP4520262B2/en
Priority to US11/153,911 priority patent/US7528990B2/en
Publication of JP2006086755A publication Critical patent/JP2006086755A/en
Application granted granted Critical
Publication of JP4520262B2 publication Critical patent/JP4520262B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Accessory Devices And Overall Control Thereof (AREA)
  • Record Information Processing For Printing (AREA)
  • Control Or Security For Electrophotography (AREA)
  • Facsimiles In General (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image forming apparatus high in operability and reliability for users. <P>SOLUTION: In the image forming apparatus 10, a scanner 11 reads an original image, a screen information generator 134 generates finish estimating screen information from image data, and a display panel 15c shows a finished estimating screen. An operator touches on a touch panel 15b and words, a space item identifier 131 selects an space indication item, a language item identifier 132 identifies a language indication item, and a processing item setting unit 133 sets a process item for forming an image by combining the space indication item selected by the space item identifier 131 with the language indication item selected by the language item identifier 132. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、画像形成装置、画像形成方法、その方法をコンピュータに実行させるプログラム、画像処理装置、および画像処理システムに関し、特に入力した画像データから仕上がり予想状態および設定入力画面を表示して、操作者からの設定入力を受け付ける画像形成装置、画像形成方法、その方法をコンピュータに実行させるプログラム、画像処理装置、および画像処理システムに関するものである。   The present invention relates to an image forming apparatus, an image forming method, a program for causing a computer to execute the method, an image processing apparatus, and an image processing system, and in particular, displays a predicted finish state and a setting input screen from input image data, and operates them. The present invention relates to an image forming apparatus that accepts setting input from a person, an image forming method, a program that causes a computer to execute the method, an image processing apparatus, and an image processing system.

従来、原稿画像を読み取るスキャナ、スキャナで読み取った原稿画像を印刷する複写機、外部から入力された画像データを印刷するプリンタやファクシミリ装置、あるいは、これらの機能を兼ね備えた複合機などの画像形成装置が用いられていた。   Conventionally, an image forming apparatus such as a scanner for reading an original image, a copying machine for printing an original image read by the scanner, a printer or a facsimile apparatus for printing image data input from the outside, or a multifunction machine having these functions Was used.

この種の画像形成装置にあっては、原稿の種類や濃度といった原稿の状態に関する設定、拡大率・縮小率、片面・両面、あるいは余白サイズなどの各種画像処理に関する設定、ソート、ステープル処理、あるいはパンチ穴あけといった仕上げ処理に関する設定など、様々な機能に関する設定をユーザは行う必要がある。このため、ユーザは、印刷設定に関する非常に膨大なメニュー項目の中から所望の機能を探し出し、正確な設定入力を行わなければならなかった。   In this type of image forming apparatus, settings relating to the state of the original such as the type and density of the original, settings relating to various image processing such as the enlargement / reduction ratio, single side / double side, or margin size, sorting, stapling, or The user needs to make settings related to various functions such as settings related to finishing processing such as punching. For this reason, the user has to find out a desired function from a very large number of menu items related to print settings and to perform accurate setting input.

これは、機器側で原稿内容に関する情報を把握していないため、原稿によっては設定する必要のない機能に関する選択肢までメニュー項目中に存在させる必要があり、メニューが非常に複雑となり、ユーザの印刷設定に関する操作の利便性が損なわれる結果となっていた。   This is because the device does not know the information about the contents of the document, so it is necessary to make the menu items include options related to functions that do not need to be set depending on the document. As a result, the convenience of the operation was impaired.

そこで、コンタクトガラス上に原稿が載置され、原稿押えカバーが閉じると同時にプレスキャンが実行され、読み取った画像に基づいてカラー画像と白黒画像との判別、あるいは、文字部と写真部との判別を行うことにより、原稿画像に応じた画像処理を自動的に分離処理して、操作性等の向上を図った画像形成装置があった(特許文献1参照)。   Therefore, an original is placed on the contact glass, and the pre-scan is executed at the same time as the original cover is closed. Based on the read image, a color image and a black and white image are discriminated, or a character portion and a photo portion are discriminated. By performing the above, there has been an image forming apparatus in which image processing according to a document image is automatically separated to improve operability (see Patent Document 1).

また、ユーザが原稿の読み取り条件の設定を任意に行った場合、その内容を1つのグループとし、画像形成装置に表示される読み込み条件ボタンに対応させて記憶し、事前に登録された内容は、この読み込み条件ボタンを指定することで呼び出して、複数の設定項目が登録済みの設定値に自動更新することにより、原稿読み取り条件の設定を容易に行うことのできる画像形成装置があった(特許文献2参照)。   Further, when the user arbitrarily sets the document reading conditions, the contents are grouped into one group and stored in correspondence with the reading condition buttons displayed on the image forming apparatus. There has been an image forming apparatus that can be called by specifying this reading condition button and can easily set document reading conditions by automatically updating a plurality of setting items to registered setting values (Patent Literature). 2).

特開平8−279884号公報JP-A-8-279844 特開2001−285534号公報JP 2001-285534 A

しかしながら、このような従来技術にあっては、ユーザが印刷設定を行う際に、膨大なメニュー項目の中から所望の機能を探し出して、正確な設定入力を行わなければならないため、煩雑な上に、作業効率が悪くなるという問題があった。   However, in such a conventional technique, when a user performs print settings, it is necessary to search for a desired function from a large number of menu items and perform accurate setting input. There was a problem that work efficiency deteriorated.

この傾向は、特に最近の高機能な画像形成装置のように、使用頻度の高いものから使用頻度の低いものまで非常に豊富な機能を有しているもの、あるいは、それらを組み合わせた複合機などでは、印刷設定を行う際により重大な問題となってきている。   This trend is particularly high in the recent high-function image forming devices, such as those with abundant functions from those that are used frequently to those that are used infrequently, or multifunction devices that combine them. However, it has become a more serious problem when performing print settings.

上記特許文献1では、原稿をプレスキャンして読み取った画像に基づいて画像の種類を判別し、判別した画像に基づいて画像が自動的に分離処理されるが、スキャン結果が印刷設定画面に表示される設定項目に直接反映されないため、印刷設定作業の効率化が図れないという問題があった。   In Patent Document 1, an image type is determined based on an image read by pre-scanning a document, and the image is automatically separated based on the determined image. The scan result is displayed on the print setting screen. This is not directly reflected in the setting items to be set, so that there is a problem that the efficiency of the print setting work cannot be achieved.

また、上記特許文献2では、ユーザが原稿の読み取り条件の設定を任意に行い、その内容を1つのグループとして読み込み条件ボタンに対応させて記憶しておく。そして、読み込み条件ボタンを指定すると、それに対応した登録内容を呼び出して、複数の設定項目を登録済みの設定値に自動更新されるのであるが、読み込み条件ボタンの指定をユーザ自身が行う点で通常の設定作業と変わりはなく、読み込み条件の設定が容易になったとしても、設定作業自体の効率化が図られた訳ではないという問題があった。   In Patent Document 2, the user arbitrarily sets document reading conditions, and the contents are stored as one group corresponding to the reading condition buttons. When a loading condition button is specified, the corresponding registration contents are called up, and multiple setting items are automatically updated to the registered setting values. However, it is normal for the user to specify the loading condition button. However, there is a problem that the efficiency of the setting work itself is not improved even if the reading conditions can be easily set.

このように、従来の画像形成装置では、原稿を読み取って画像形成を行う際にユーザは設定を実行する前に自分の設定によってどのような仕上がりになるのかを確認することはできなかったという問題、近年の画像形成装置の機能は多機能なものとなって来て設定操作自体も複雑になっているという問題、および、所望のように設定したつもりであっても印刷結果は所望の設定と異なることがあるという問題は解決されていなかった。   As described above, in the conventional image forming apparatus, when the image is formed by reading a document, the user cannot confirm what kind of finish is made according to his / her setting before executing the setting. However, the functions of image forming apparatuses in recent years have become multifunctional, and the setting operation itself has become complicated, and even if the setting is made as desired, the print result is the desired setting. The problem of being different was not solved.

本発明は、上記に鑑みてなされたものであって、ユーザによる各種機能の設定作業に先立って原稿データを読み込んで予想仕上がり状態を表示し、表示された画像への接触、および操作者の発する発話を用いて画像処理項目を設定でき、操作者にとっては利便性が高く装置にとっては確実性が高い画像形成装置、画像形成方法、その方法をコンピュータに実行させるプログラム、画像処理装置、および画像処理システムを提供することを目的とする。   The present invention has been made in view of the above, and reads an original data and displays an expected finish state prior to setting of various functions by a user, touches the displayed image, and is issued by an operator. An image forming apparatus, an image forming method, a program for causing a computer to execute the method, an image processing apparatus, and an image processing that can set image processing items using speech and are convenient for an operator and highly reliable for an apparatus The purpose is to provide a system.

また、本発明は、ユーザが画像形成のための設定項目値を入力した場合、設定入力を反映した仕上がり予想画像、および新たな設定メニューを表示して画像処理項目を設定できる操作者にとっては利便性が高く装置にとっては確実性が高い画像形成装置、画像形成方法、その方法をコンピュータに実行させるプログラム、画像処理装置、および画像処理システムを提供することを目的とする。   Further, the present invention is convenient for an operator who can set an image processing item by displaying a predicted finished image reflecting a setting input and a new setting menu when the user inputs a setting item value for image formation. An object of the present invention is to provide an image forming apparatus, an image forming method, a program for causing a computer to execute the method, an image processing apparatus, and an image processing system.

また、本発明は、画像データを入力した場合、その原稿の特性値を検出して予想仕上がり状態および必要な設定項目を表示してユーザによる設定入力を受け付けることにより、操作者にとっては利便性が高く装置にとっては確実性が高い画像形成装置、画像形成方法、その方法をコンピュータに実行させるプログラム、画像処理装置、および画像処理システムを提供することを目的とする。   Further, according to the present invention, when image data is input, the characteristic value of the original is detected, the expected finishing state and necessary setting items are displayed, and the setting input by the user is accepted, so that it is convenient for the operator. An object of the present invention is to provide an image forming apparatus, an image forming method, a program for causing a computer to execute the method, an image processing apparatus, and an image processing system that are highly reliable for the apparatus.

上述した課題を解決し、目的を達成するために、請求項1にかかる発明は、画像データを入力して画像データ処理および印刷仕上げ処理後の予想画像を表示し、操作者からの画像形成の処理項目の設定を受け付ける画像形成装置であって、前記予想画像の予想画像情報を生成する予想画像情報生成手段と、前記予想画像情報生成手段によって生成された予想画像情報に基づいて前記予想画像を表示する表示手段と、前記予想画像を表示する表示手段への、前記操作者の指先およびスタイラスの少なくともいずれかを含む接触物の接触により、前記予想画像に関する空間情報を取得し空間的な設定である空間指示項目を識別する空間項目識別手段と、音声情報を受け付けて受け付けた前記音声情報から言語を介する設定である言語指示項目を識別する言語項目識別手段と、前記空間項目識別手段により識別された空間指示項目および前記言語項目識別手段によって識別された言語指示項目の中から選択して、前記画像形成の処理項目を設定する設定手段と、を備たことを特徴とする。   In order to solve the above-described problems and achieve the object, the invention according to claim 1 inputs image data, displays an expected image after image data processing and print finishing processing, and performs image formation from an operator. An image forming apparatus that accepts setting of a processing item, the predicted image information generating unit that generates predicted image information of the predicted image, and the predicted image based on the predicted image information generated by the predicted image information generating unit. Spatial information related to the predicted image is obtained by contact of a contact object including at least one of the fingertip of the operator and the stylus to the display unit for displaying and the display unit for displaying the predicted image, and the spatial setting is used. A space item identifying means for identifying a certain space instruction item, and a language instruction item that is set via a language from the received sound information. Language item identifying means, and a setting means for setting the image formation processing item by selecting from the space instruction item identified by the space item identifying means and the language instruction item identified by the language item identifying means It is characterized by having.

また、請求項2にかかる発明は、請求項1に記載の画像形成装置において、前記予想画像情報生成手段は、前記設定手段によって設定された前記画像形成の処理項目に基づいて予想画像情報を生成するものであり、前記表示手段は、前記予想画像情報生成手段によって生成された予想画像情報に基づいて前記予想画像を表示するものであることを特徴とする。   According to a second aspect of the present invention, in the image forming apparatus according to the first aspect, the predicted image information generation unit generates the predicted image information based on the image formation processing items set by the setting unit. The display means displays the predicted image based on the predicted image information generated by the predicted image information generating means.

また、請求項3にかかる発明は、請求項1または2に記載の画像形成装置において、前記空間指示項目および前記言語指示項目を関連させて記憶する設定項目記憶手段を、さらに備え、前記設定手段は、前記設定項目記憶手段によって記憶された前記空間指示項目および言語指示項目の少なくともいずれかを参照して、前記画像形成の処理項目を設定するものであることを特徴とする。   According to a third aspect of the present invention, in the image forming apparatus according to the first or second aspect of the present invention, the image forming apparatus further includes a setting item storage unit that stores the space instruction item and the language instruction item in association with each other. Is configured to set the image formation processing item with reference to at least one of the space instruction item and the language instruction item stored by the setting item storage unit.

また、請求項4にかかる発明は、請求項1〜3のいずれか1つに記載の画像形成装置において、前記空間項目識別手段は、前記接触物が前記表示手段の画像に接触する位置、方向、および領域の少なくとも一つを含む空間情報を取得して空間指示項目を識別するものであり、前記言語項目識別手段は、前記操作者の発話による音声を受け付けて言語指示項目を識別するものであり、前記設定手段は、前記空間指示項目および前記言語指示項目の中から選択して前記画像形成の処理項目を設定するものであることを特徴とする。   According to a fourth aspect of the present invention, in the image forming apparatus according to any one of the first to third aspects, the space item identifying unit includes a position and a direction in which the contact object contacts the image of the display unit. , And space information including at least one of the areas is acquired to identify a space instruction item, and the language item identification means is configured to accept a voice produced by the operator and identify a language instruction item. And the setting means is configured to select the space instruction item and the language instruction item and set the image formation processing item.

また、請求項5にかかる発明は、請求項1〜4のいずれか1つに記載の画像形成装置において、前記表示手段は、前記予想画像を表示するタッチパネルを有し、前記空間項目識別手段は、前記タッチパネル上で前記接触物が接触することにより前記空間情報を取得し、前記空間指示項目を識別するものであることを特徴とする。   According to a fifth aspect of the present invention, in the image forming apparatus according to any one of the first to fourth aspects, the display unit includes a touch panel for displaying the predicted image, and the space item identification unit is The spatial information is acquired by the contact of the contact object on the touch panel, and the space instruction item is identified.

また、請求項6にかかる発明は、請求項5に記載の画像形成装置において、前記空間項目識別手段は、前記タッチパネル上の前記接触物が接触する軌跡から前記空間情報を識別するものであることを特徴とする。   According to a sixth aspect of the present invention, in the image forming apparatus according to the fifth aspect, the space item identifying unit identifies the spatial information from a locus of contact of the contact object on the touch panel. It is characterized by.

また、請求項7にかかる発明は、請求項1〜6のいずれか1つに記載の画像形成装置において、前記設定手段は、前記空間指示項目および前記言語指示項目のうちの一方の指示項目を選択した場合、他方の指示項目の候補の数を制限して選択し、選択された前記一方および前記他方の指示項目のうちから前記画像形成の処理項目を設定するものであることを特徴とする。   According to a seventh aspect of the present invention, in the image forming apparatus according to any one of the first to sixth aspects, the setting unit selects one of the space instruction item and the language instruction item. When selected, the number of candidates for the other instruction item is limited and selected, and the image formation processing item is set from the selected one and the other instruction items. .

また、請求項8にかかる発明は、請求項7に記載の画像形成装置において、前記設定手段は、前記一方を前記空間指示項目とし、かつ、前記他方を前記言語指示項目として選択して、前記画像形成の処理項目を設定するものであることを特徴とする。   The invention according to claim 8 is the image forming apparatus according to claim 7, wherein the setting unit selects the one as the space instruction item and the other as the language instruction item, and It is characterized by setting processing items for image formation.

また、請求項9にかかる発明は、請求項7に記載の画像形成装置において、前記設定手段は、前記一方を前記言語指示項目とし、かつ、前記他方を前記空間指示項目として選択して、前記画像形成の処理項目を設定するものであることを特徴とする。   The invention according to claim 9 is the image forming apparatus according to claim 7, wherein the setting unit selects the one as the language instruction item and the other as the space instruction item, and It is characterized by setting processing items for image formation.

また、請求項10にかかる発明は、請求項1〜9のいずれか1つに記載の画像形成装置において、前記空間項目識別手段は、前記空間指示項目に対する確実度の情報である空間確実度を識別し、前記言語項目識別手段は、前記言語指示項目に対する確実度の情報である言語確実度を識別し、前記設定手段は、識別された前記空間確実度および言語確実度に基づいて、前記画像形成の処理項目を設定するものであることを特徴とする。   According to a tenth aspect of the present invention, in the image forming apparatus according to any one of the first to ninth aspects, the space item identifying unit has a space certainty that is information of certainty with respect to the space indicating item. The language item identifying means identifies a language certainty that is information of certainty with respect to the language instruction item, and the setting means determines the image based on the identified spatial certainty and language certainty. It is characterized in that a processing item for formation is set.

また、請求項11にかかる発明は、請求項10に記載の画像形成装置において、前記設定手段は、前記空間指示項目と前記言語指示項目との関連度の情報である項目関連度を決定するものであり、前記設定手段は、前記空間指示項目、言語指示項目、および決定された前記項目関連度に基づいて前記画像形成の処理項目を設定するものであることを特徴とする。   According to an eleventh aspect of the present invention, in the image forming apparatus according to the tenth aspect, the setting unit determines an item relevance level that is information on a relevance level between the space instruction item and the language instruction item. The setting means sets the image formation processing item based on the space instruction item, the language instruction item, and the determined item relevance.

また、請求項12にかかる発明は、請求項11に記載の画像形成装置において、前記設定手段は、前記空間確実度、言語確実度、および決定された前記項目関連度に対してそれぞれ重みを付けた重み付け加算に従って前記処理項目を設定するものであることを特徴とする。   According to a twelfth aspect of the present invention, in the image forming apparatus according to the eleventh aspect, the setting unit assigns weights to the spatial certainty, language certainty, and the determined item relevance. The processing items are set according to the weighted addition.

また、請求項13にかかる発明は、請求項1〜12のいずれか1つに記載の画像形成装置において、前記入力した画像データを解析して原稿特性値を抽出する画像解析手段をさらに備え、前記予想画像情報生成手段は、前記画像解析手段によって抽出された原稿特性値に基づいて前記予想画像情報を生成するものであることを特徴とする。   The invention according to claim 13 is the image forming apparatus according to any one of claims 1 to 12, further comprising image analysis means for analyzing the input image data and extracting a document characteristic value, The predicted image information generation unit generates the predicted image information based on the document characteristic value extracted by the image analysis unit.

また、請求項14にかかる発明は、画像データを入力して画像データ処理および印刷仕上げ処理後の予想画像を表示し、操作者からの画像形成の処理項目の設定を受け付ける画像形成方法であって、前記予想画像の予想画像情報を生成する予想画像情報生成工程と、前記予想画像情報生成工程において生成された予想画像情報に基づいて前記予想画像を表示する表示工程と、前記表示工程において表示された予想画像に対して、前記操作者の指先およびスタイラスの少なくともいずれかを含む接触物の接触により前記予想画像に関する空間情報を取得して、空間的な設定である空間指示項目を識別する空間項目識別工程と、音声情報を受け付けて受け付けた前記音声情報から言語を介する設定である言語指示項目を識別する言語項目識別工程と、前記空間項目識別工程において識別された空間指示項目および前記言語項目識別工程において識別された言語指示項目の中から選択して、前記画像形成の処理項目を設定する設定工程と、を含むことを特徴とする。   The invention according to claim 14 is an image forming method for inputting image data, displaying an expected image after image data processing and print finishing processing, and receiving setting of image forming processing items from an operator. A predicted image information generating step for generating predicted image information of the predicted image; a display step for displaying the predicted image based on the predicted image information generated in the predicted image information generating step; and a display step for displaying the predicted image. A spatial item for identifying a spatial indication item which is a spatial setting by acquiring spatial information regarding the predicted image by contact of a contact object including at least one of the fingertip and stylus of the operator with respect to the predicted image A language item identifying step for identifying a language instruction item which is a setting via language from the voice information received and received voice information And a setting step for setting the processing item for image formation by selecting from the space instruction item identified in the space item identification step and the language instruction item identified in the language item identification step. Features.

また、請求項15にかかる発明は、請求項14に記載の画像形成方法において、前記予想画像情報生成工程は、前記設定工程において設定された前記画像形成の処理項目に基づいて予想画像情報を生成するものであり、前記表示工程は、前記予想画像情報生成工程において生成された予想画像情報に基づいて前記予想画像を表示するものであることを特徴とする。   According to a fifteenth aspect of the present invention, in the image forming method according to the fourteenth aspect, the predicted image information generation step generates predicted image information based on the image formation processing items set in the setting step. The display step displays the predicted image based on the predicted image information generated in the predicted image information generation step.

また、請求項16にかかる発明は、請求項14または15に記載の画像形成方法において、前記空間指示項目および前記言語指示項目を関連させて記憶する設定項目記憶工程を、さらに含み、前記設定工程は、前記設定項目記憶工程において記憶された前記空間指示項目および言語指示項目の少なくともいずれかを参照して、前記画像形成の処理項目を設定するものであることを特徴とする。   The invention according to claim 16 further includes a setting item storing step of storing the space instruction item and the language instruction item in association with each other in the image forming method according to claim 14, wherein the setting step Is configured to set the image formation processing item with reference to at least one of the space instruction item and the language instruction item stored in the setting item storage step.

また、請求項17にかかる発明は、請求項14〜16のいずれか1つに記載の画像形成方法において、前記空間項目識別工程は、前記接触物が前記表示工程による画像に接触する位置、方向、および領域の少なくとも一つを含む空間情報を取得して空間指示項目を識別するものであり、前記言語項目識別工程は、前記操作者の発話による音声を受け付けて言語指示項目を識別するものであり、前記設定工程は、前記空間指示項目および前記言語指示項目の中から選択して前記画像形成の処理項目を設定するものであることを特徴とする。   The invention according to claim 17 is the image forming method according to any one of claims 14 to 16, wherein the space item identifying step includes a position and a direction in which the contact object contacts an image in the display step. And spatial information including at least one of the areas is acquired to identify a spatial instruction item, and the language item identification step is to identify a language instruction item by accepting speech from the operator's utterance. In the setting step, the image forming process item is set by selecting from the space instruction item and the language instruction item.

また、請求項18にかかる発明は、請求項14〜17のいずれか1つに記載の画像形成方法において、前記設定工程は、前記空間指示項目および前記言語指示項目のうちの一方の指示項目を選択した場合、他方の指示項目の候補の数を制限して選択し、選択された前記一方および前記他方の指示項目のうちから前記画像形成の処理項目を設定するものであることを特徴とする。   The invention according to claim 18 is the image forming method according to any one of claims 14 to 17, wherein the setting step includes one instruction item of the space instruction item and the language instruction item. When selected, the number of candidates for the other instruction item is limited and selected, and the image formation processing item is set from the selected one and the other instruction items. .

また、請求項19にかかる発明は、請求項18に記載の画像形成方法において、前記設定工程は、前記一方を前記空間指示項目とし、かつ、前記他方を前記言語指示項目として前記処理項目の候補を選択して、前記画像形成の処理項目を設定するものであることを特徴とする。   The invention according to claim 19 is the image forming method according to claim 18, wherein in the setting step, the one is the space instruction item and the other is the language instruction item. And the processing items for the image formation are set.

また、請求項20にかかる発明は、請求項18に記載の画像形成方法において、前記設定工程は、前記一方を前記言語指示項目とし、かつ、前記他方を前記空間指示項目として前記処理項目の候補を選択して、前記画像形成の処理項目を設定するものであることを特徴とする。   The invention according to claim 20 is the image forming method according to claim 18, wherein in the setting step, the one is used as the language instruction item and the other is used as the space instruction item. And the processing items for the image formation are set.

また、請求項21にかかる発明は、請求項14〜20のいずれか1つに記載の画像形成方法において、前記空間項目識別工程は、前記空間指示項目に対する確実度の情報である空間確実度を識別し、前記言語項目識別工程は、前記言語指示項目に対する確実度の情報である言語確実度を識別し、前記設定工程は、識別された前記空間確実度および言語確実度に基づいて、前記画像形成の処理項目を設定するものであることを特徴とする。   The invention according to claim 21 is the image forming method according to any one of claims 14 to 20, wherein the space item identifying step sets a space certainty that is information of certainty for the space indicating item. Identifying, the language item identifying step identifies language certainty that is information of certainty for the language instruction item, and the setting step is based on the identified spatial certainty and language certainty. It is characterized in that a processing item for formation is set.

また、請求項22にかかる発明は、請求項21に記載の画像形成方法において、前記設定工程は、前記空間指示項目と前記言語指示項目との関連度の情報である項目関連度を決定するものであり、前記設定工程は、前記空間指示項目、言語指示項目、および決定された前記項目関連度に基づいて前記画像形成の処理項目を設定するものであることを特徴とする。   According to a twenty-second aspect of the present invention, in the image forming method according to the twenty-first aspect, the setting step determines an item relevance level that is information on a relevance level between the space instruction item and the language instruction item. And the setting step sets the image formation processing item based on the space instruction item, the language instruction item, and the determined item relevance.

また、請求項23にかかる発明は、請求項22に記載の画像形成方法において、前記設定工程は、前記空間確実度、言語確実度、および決定された前記項目関連度に対してそれぞれ重みを付けた重み付け加算に従って前記処理項目を設定するものであることを特徴とする。   The invention according to claim 23 is the image forming method according to claim 22, wherein the setting step assigns weights to the spatial certainty, language certainty, and the determined item relevance. The processing items are set according to the weighted addition.

また、請求項24にかかる発明は、請求項14〜23のいずれか1つに記載の画像形成方法において、前記入力した画像データを解析して原稿特性値を抽出する画像解析工程をさらに含み、前記予想画像情報生成工程は、前記画像解析工程において抽出された原稿特性値に基づいて前記予想画像情報を生成するものであることを特徴とする。   The invention according to claim 24 further includes an image analysis step of analyzing the input image data and extracting a document characteristic value in the image forming method according to any one of claims 14 to 23, In the predicted image information generation step, the predicted image information is generated based on the document characteristic value extracted in the image analysis step.

また、請求項25にかかる発明は、プログラムであって、請求項14〜24のいずれか1つに記載の画像形成方法をコンピュータに実行させることを特徴とする。   The invention according to claim 25 is a program, characterized by causing a computer to execute the image forming method according to any one of claims 14-24.

また、請求項26にかかる発明は、画像データを入力して画像データ処理および印刷仕上げ処理後の予想画像を表示し、操作者からの画像形成の処理項目の設定を受け付ける画像形成装置における画像処理装置であって、前記予想画像の予想画像情報を生成する予想画像情報生成手段と、前記予想画像情報生成手段によって生成された予想画像情報に基づいて前記予想画像を表示する表示手段と、前記予想画像を表示する表示手段への、前記操作者の指先およびスタイラスの少なくともいずれかを含む接触物の接触により、前記予想画像に関する空間情報を取得し空間的な設定である空間指示項目を識別する空間項目識別手段と、音声情報を受け付けて受け付けた前記音声情報から言語を介する設定である言語指示項目を識別する言語項目識別手段と、前記空間項目識別手段により識別された空間指示項目および前記言語項目識別手段によって識別された言語指示項目の中から選択して、前記画像形成の処理項目を設定する設定手段と、を備たことを特徴とする。   According to a twenty-sixth aspect of the present invention, image processing in an image forming apparatus that inputs image data, displays an expected image after image data processing and print finishing processing, and accepts setting of processing items for image formation from an operator. A predicted image information generating unit that generates predicted image information of the predicted image; a display unit that displays the predicted image based on the predicted image information generated by the predicted image information generating unit; A space for acquiring spatial information on the predicted image and identifying a spatial indication item which is a spatial setting by contact of a contact object including at least one of the fingertip of the operator and a stylus with a display unit that displays an image A language item identifier for identifying a language instruction item that is set via language from the voice information received and received by the item identification means; And a setting means for setting the image formation processing item by selecting from the space instruction item identified by the space item identification means and the language instruction item identified by the language item identification means. It is characterized by that.

また、請求項27にかかる発明は、請求項26に記載の画像処理装置において、前記予想画像情報生成手段は、前記設定手段によって設定された前記画像形成の処理項目に基づいて予想画像情報を生成するものであり、前記表示手段は、前記予想画像情報生成手段によって生成された予想画像情報に基づいて前記予想画像を表示するものであることを特徴とする。   According to a twenty-seventh aspect of the present invention, in the image processing apparatus according to the twenty-sixth aspect, the predicted image information generating unit generates predicted image information based on the image formation processing items set by the setting unit. The display means displays the predicted image based on the predicted image information generated by the predicted image information generating means.

また、請求項28にかかる発明は、請求項26または27に記載の画像処理装置において、前記空間指示項目および前記言語指示項目を関連させて記憶する設定項目記憶手段を、さらに備え、前記設定手段は、前記設定項目記憶手段によって記憶された前記空間指示項目および言語指示項目の少なくともいずれかを参照して、前記画像形成の処理項目を設定するものであることを特徴とする。   The invention according to claim 28 is the image processing apparatus according to claim 26 or 27, further comprising setting item storage means for storing the space instruction item and the language instruction item in association with each other, wherein the setting means Is configured to set the image formation processing item with reference to at least one of the space instruction item and the language instruction item stored by the setting item storage unit.

また、請求項29にかかる発明は、ネットワーク接続され、画像データを入力して画像データ処理および印刷仕上げ処理後の予想画像を表示し、操作者からの画像形成の処理項目の設定を受け付ける画像処理システムであって、それぞれのうち2つ以上が前記ネットワーク接続され、前記予想画像の予想画像情報を生成する予想画像情報生成手段と、前記予想画像情報生成手段によって生成された予想画像情報に基づいて前記予想画像を表示する表示手段と、前記予想画像を表示する表示手段への、前記操作者の指先およびスタイラスの少なくともいずれかを含む接触物の接触により、前記予想画像に関する空間情報を取得し空間的な設定である空間指示項目を識別する空間項目識別手段と、音声情報を受け付けて受け付けた前記音声情報から言語を介する設定である言語指示項目を識別する言語項目識別手段と、前記空間項目識別手段により識別された空間指示項目および前記言語項目識別手段によって識別された言語指示項目の中から選択して、前記画像形成の処理項目を設定する設定手段と、を備えたことを特徴とする。   According to the twenty-ninth aspect of the present invention, there is provided an image processing which is connected to a network, receives image data, displays an expected image after image data processing and print finishing processing, and accepts setting of image forming processing items from an operator. Two or more of each of which are connected to the network, based on predicted image information generating means for generating predicted image information of the predicted image, and predicted image information generated by the predicted image information generating means Spatial information related to the predicted image is obtained by contact of a contact object including at least one of the fingertip of the operator and a stylus with the display unit that displays the predicted image and the display unit that displays the predicted image. The spatial item identification means for identifying the spatial instruction item which is a typical setting, and the voice information received and received by the voice information Language item identifying means for identifying a language instruction item which is a setting via language, and selecting from among the space instruction item identified by the space item identifying means and the language instruction item identified by the language item identifying means, And setting means for setting the processing items for the image formation.

また、請求項30にかかる発明は、請求項29に記載の画像処理システムにおいて、前記予想画像情報生成手段は、前記設定手段によって設定された前記画像形成の処理項目に基づいて予想画像情報を生成するものであり、前記表示手段は、前記予想画像情報生成手段によって生成された予想画像情報に基づいて前記予想画像を表示するものであることを特徴とする。   According to a thirty-third aspect of the present invention, in the image processing system according to the twenty-ninth aspect, the predicted image information generating unit generates predicted image information based on the image formation processing items set by the setting unit. The display means displays the predicted image based on the predicted image information generated by the predicted image information generating means.

また、請求項31にかかる発明は、請求項29または30に記載の画像処理システムにおいて、前記ネットワークに接続されて、前記空間指示項目および前記言語指示項目を関連させて記憶する設定項目記憶手段を、さらに備え、前記設定手段は、前記設定項目記憶手段によって記憶された前記空間指示項目および言語指示項目の少なくともいずれかを参照して、前記画像形成の処理項目を設定するものであることを特徴とする。   The invention according to claim 31 is the image processing system according to claim 29 or 30, wherein the setting item storage means is connected to the network and stores the space instruction item and the language instruction item in association with each other. The setting unit is configured to set the image formation processing item with reference to at least one of the space instruction item and the language instruction item stored by the setting item storage unit. And

請求項1にかかる画像形成装置は、予想画像の予想画像情報を生成し、予想画像情報に基づいて予想画像を表示し、操作者の指先およびスタイラスの少なくともいずれかを含む接触物の接触により、予想画像に関する空間情報を取得し空間的な設定である空間指示項目を識別し、音声情報を受け付けて言語を介する設定である言語指示項目を識別し、空間指示項目および言語指示項目の中から選択して画像形成の処理項目を設定する。この構成によって、ユーザによる各種機能の設定作業に先立って画像データを入力して予想仕上がり状態を表示し、表示された画像への接触および発話によって直感的に画像形成の処理項目を設定できるので、操作者にとっては利便性が高く装置にとっては確実性が高い画像形成装置を提供することができるという効果を奏する。   The image forming apparatus according to claim 1 generates predicted image information of the predicted image, displays the predicted image based on the predicted image information, and contacts a contact object including at least one of the fingertip of the operator and the stylus, Acquire spatial information about the predicted image, identify spatial instruction items that are spatial settings, identify voice instruction information, identify language instruction items that are set via language, and select from spatial instruction items and language instruction items Then, the processing items for image formation are set. With this configuration, it is possible to input image data prior to setting various functions by the user and display an expected finish state, and to intuitively set processing items for image formation by touching and speaking the displayed image. There is an effect that it is possible to provide an image forming apparatus that is convenient for the operator and highly reliable for the apparatus.

また、請求項2にかかる画像形成装置は、設定された画像形成の処理項目に基づいて予想画像情報を生成して、生成された予想画像情報に基づいて予想画像を表示する。この構成によって、処理項目を設定した後の予想仕上がり状態を表示して、さらに表示された画像への接触および発話によって直感的に画像形成の処理項目を設定できるので、操作者にとっては利便性が高く装置にとっては確実性が高い画像形成装置を提供することができるという効果を奏する。   According to a second aspect of the present invention, the image forming apparatus generates predicted image information based on the set image formation processing item, and displays the predicted image based on the generated predicted image information. With this configuration, it is possible to display the expected finished state after setting the processing items, and further to set the processing items for image formation intuitively by touching and speaking the displayed image, which is convenient for the operator. An image forming apparatus that is high and highly reliable can be provided.

また、請求項3にかかる画像形成装置は、空間指示項目および言語指示項目を関連させて記憶し、記憶された空間指示項目および言語指示項目の少なくともいずれかを参照して、画像形成の処理項目を設定する。この構成によって、ユーザによる各種機能の設定作業に先立って画像データを入力して予想仕上がり状態を表示し、表示された画像への接触および発話によって直感的に関連性のある画像形成の処理項目を設定できるので、操作者にとっては利便性が高く装置にとっては確実性が高い画像形成装置を提供することができるという効果を奏する。   The image forming apparatus according to claim 3 stores the space instruction item and the language instruction item in association with each other, and refers to at least one of the stored space instruction item and the language instruction item to perform an image formation processing item. Set. This configuration allows the user to input image data and display the expected finished state prior to setting the various functions by the user, and intuitively related processing items for image formation by touching and speaking the displayed image. Therefore, it is possible to provide an image forming apparatus that is convenient for the operator and highly reliable for the apparatus.

また、請求項4にかかる画像形成装置は、接触物が表示手段の画像に接触する位置、方向、および領域の少なくとも一つを含む空間情報を取得して空間指示項目を識別し、操作者の発話による音声を受け付けて言語指示項目を識別し、空間指示項目および言語指示項目の中から選択して画像形成の処理項目を設定する。この構成によって、ユーザによる各種機能の設定作業に先立って画像データを入力して予想仕上がり状態を表示し、表示された画像へ接触物により軌跡を描くことおよび発話によって直感的に画像形成の処理項目を設定できるので、操作者にとっては利便性が高く装置にとっては確実性が高い画像形成装置を提供することができるという効果を奏する。   According to a fourth aspect of the present invention, there is provided an image forming apparatus that acquires spatial information including at least one of a position, a direction, and a region where a contact object contacts an image of a display unit, identifies a spatial instruction item, and A speech instruction is received to identify a language instruction item, and a processing item for image formation is set by selecting from the space instruction item and the language instruction item. With this configuration, prior to setting various functions by the user, image data is input to display the expected finished state, and a trace is drawn on the displayed image with a contact object, and processing items for image formation intuitively by utterance Therefore, it is possible to provide an image forming apparatus that is convenient for the operator and highly reliable for the apparatus.

また、請求項5にかかる画像形成装置は、予想画像を表示するタッチパネルを有し、タッチパネル上で接触物が接触することにより空間情報を取得し、空間指示項目を識別する。この構成によって、ユーザによる各種機能の設定作業に先立って画像データを入力して予想仕上がり状態をタッチパネルに表示し、表示されたタッチパネル上の画像への接触および発話によって直感的に画像形成の処理項目を設定できるので、操作者にとっては利便性が高く装置にとっては確実性が高い画像形成装置を提供することができるという効果を奏する。   According to a fifth aspect of the present invention, the image forming apparatus includes a touch panel that displays an expected image, acquires spatial information when a contact object comes in contact with the touch panel, and identifies a spatial instruction item. This configuration allows the user to input image data prior to setting various functions by the user and display the expected finished state on the touch panel, and intuitively form image processing items by touching and speaking the image on the displayed touch panel. Therefore, it is possible to provide an image forming apparatus that is convenient for the operator and highly reliable for the apparatus.

また、請求項6にかかる画像形成装置は、タッチパネル上の接触物が接触する軌跡から空間情報を識別する。この構成によって、ユーザによる各種機能の設定作業に先立って画像データを入力して予想仕上がり状態をタッチパネルに表示し、表示されたタッチパネル上の画像に接触して描く軌跡および発話によって直感的に画像形成の処理項目を設定できるので、操作者にとっては利便性が高く装置にとっては確実性が高い画像形成装置を提供することができるという効果を奏する。   According to a sixth aspect of the present invention, the image forming apparatus identifies spatial information from the locus of contact with the contact object on the touch panel. This configuration allows the user to input image data and display the expected finished state on the touch panel prior to setting the various functions by the user, and intuitively form an image by touching and drawing the image on the displayed touch panel. Therefore, it is possible to provide an image forming apparatus that is convenient for the operator and highly reliable for the apparatus.

また、請求項7にかかる画像形成装置は、空間指示項目および言語指示項目のうちの一方の指示項目を選択した場合、他方の指示項目の候補の数を制限して選択し、選択された一方および他方の指示項目のうちから画像形成の処理項目を設定する。この構成によって、ユーザによる各種機能の設定作業に先立って画像データを入力して予想仕上がり状態を表示し、表示された画像への接触および発話の一方によって指示項目を識別し、次に、他方の指示項目を絞り込んで画像形成の処理項目を設定できるので、操作者にとっては利便性が高く装置にとっては確実性が高い画像形成装置を提供することができるという効果を奏する。   In the image forming apparatus according to claim 7, when one instruction item is selected from the space instruction item and the language instruction item, the number of candidates for the other instruction item is limited and selected, and the selected one item is selected. The image forming process item is set from the other instruction items. With this configuration, prior to setting the various functions by the user, the image data is input to display the expected finished state, and the instruction item is identified by one of contact and utterance to the displayed image, and then the other Since the processing items for image formation can be set by narrowing down the instruction items, it is possible to provide an image forming apparatus that is convenient for the operator and highly reliable for the apparatus.

また、請求項8にかかる画像形成装置は、一方を空間指示項目とし、かつ、他方を言語指示項目として選択して、画像形成の処理項目を設定する。この構成によって、ユーザによる各種機能の設定作業に先立って画像データを入力して予想仕上がり状態を表示し、表示された画像への接触によって空間指示項目を識別し、次に言語指示項目を絞り込んで画像形成の処理項目を設定できるので、操作者にとっては利便性が高く装置にとっては確実性が高い画像形成装置を提供することができるという効果を奏する。   The image forming apparatus according to the eighth aspect selects one as a space instruction item and the other as a language instruction item, and sets an image forming process item. With this configuration, prior to setting the various functions by the user, the image data is input to display the expected finished state, the space indication items are identified by touching the displayed image, and then the language indication items are narrowed down. Since the processing items for image formation can be set, it is possible to provide an image forming apparatus that is convenient for the operator and highly reliable for the apparatus.

また、請求項9にかかる画像形成装置は、一方を言語指示項目とし、かつ、他方を空間指示項目として選択して、画像形成の処理項目を設定する。この構成によって、ユーザによる各種機能の設定作業に先立って画像データを入力して予想仕上がり状態を表示し、音声により言語指示項目を識別し、次に、表示された画像への接触によって絞り込んで空間指示項目を識別し、画像形成の処理項目を設定できるので、操作者にとっては利便性が高く装置にとっては確実性が高い画像形成装置を提供することができるという効果を奏する。   In the image forming apparatus according to the ninth aspect, one is set as a language instruction item and the other is selected as a space instruction item, and an image forming process item is set. With this configuration, prior to setting the various functions by the user, the image data is input to display the expected finished state, the language instruction items are identified by voice, and then the space is narrowed down by touching the displayed image. Since the instruction items can be identified and the image formation processing items can be set, it is possible to provide an image forming apparatus that is convenient for the operator and highly reliable for the apparatus.

また、請求項10にかかる画像形成装置は、空間指示項目に対する確実度の情報である空間確実度を識別し、言語指示項目に対する確実度の情報である言語確実度を識別し、決定された空間確実度および言語確実度とに基づいて、画像形成の処理項目を設定するものであることを特徴とする。この構成によって、ユーザによる各種機能の設定作業に先立って画像データを入力して予想仕上がり状態を表示し、表示された画像への接触および発話により直感的に画像形成の処理項目をそれぞれに確実度を加味して設定できるので、操作者にとっては利便性が高く装置にとっては確実性が高い画像形成装置を提供することができるという効果を奏する。   According to a tenth aspect of the present invention, the image forming apparatus identifies a spatial certainty that is information of certainty for the space instruction item, identifies a language certainty that is information of certainty for the language instruction item, and determines the determined space. An image forming process item is set based on the certainty level and the language certainty level. With this configuration, the user can input image data and display the expected finished state prior to setting the various functions by the user, and each image formation processing item can be intuitively determined by touching and speaking the displayed image. Therefore, it is possible to provide an image forming apparatus that is convenient for the operator and highly reliable for the apparatus.

また、請求項11にかかる画像形成装置は、空間指示項目と言語指示項目との関連度の情報である項目関連度を決定し、空間指示項目、言語指示項目、および決定された項目関連度に基づいて画像形成の処理項目を設定する。この構成によって、ユーザによる各種機能の設定作業に先立って画像データを入力して予想仕上がり状態を表示し、表示された画像への接触および発話により直感的に画像形成の処理項目をそれぞれの項目の関連性を表す関連度を加味して設定できるので、操作者にとっては利便性が高く装置にとっては確実性が高い画像形成装置を提供することができるという効果を奏する。   The image forming apparatus according to claim 11 determines an item relevance level that is information on a degree of association between the space instruction item and the language instruction item, and determines the space instruction item, the language instruction item, and the determined item relevance degree. Based on this, processing items for image formation are set. With this configuration, prior to setting various functions by the user, image data is input to display an expected finished state, and processing items for image formation are intuitively determined by touching and speaking the displayed image. Since it can be set in consideration of the degree of relevance representing the relevance, there is an effect that it is possible to provide an image forming apparatus that is convenient for the operator and highly reliable for the apparatus.

また、請求項12にかかる画像形成装置は、空間確実度、言語確実度、および決定された項目関連度に対してそれぞれ重みを付けた重み付け加算に従って処理項目を設定する。この構成によって、ユーザによる各種機能の設定作業に先立って画像データを入力して予想仕上がり状態を表示し、表示された画像への接触および発話により直感的に画像形成の処理項目をそれぞれの項目の確実度と関連性を表す関連度を加味して設定できるので、操作者にとっては利便性が高く装置にとっては確実性が高い画像形成装置を提供することができるという効果を奏する。   The image forming apparatus according to a twelfth aspect sets processing items according to a weighted addition in which the space certainty, the language certainty, and the determined item relevance are weighted. With this configuration, prior to setting various functions by the user, image data is input to display an expected finished state, and processing items for image formation are intuitively determined by touching and speaking the displayed image. Since it can be set in consideration of the degree of certainty and the degree of relation representing the degree of relevance, it is possible to provide an image forming apparatus that is convenient for the operator and highly reliable for the apparatus.

また、請求項13にかかる画像形成装置は、入力した画像データを解析して原稿特性値を抽出し、抽出された原稿特性値に基づいて予想画像情報を生成する。この構成によって、ユーザによる各種機能の設定作業に先立って画像データを入力して原稿特性値を読み取って予想仕上がり状態を表示し、原稿特性を繁栄して表示された画像への接触および発話によって直感的に画像形成の処理項目を設定できるので、操作者にとっては利便性が高く装置にとっては確実性が高い画像形成装置を提供することができるという効果を奏する。   An image forming apparatus according to a thirteenth aspect analyzes input image data to extract a document characteristic value, and generates predicted image information based on the extracted document characteristic value. With this configuration, prior to setting the various functions by the user, the image data is input, the original characteristic value is read to display the expected finished state, and the original characteristic is prosperous. In addition, since the image formation processing items can be set, it is possible to provide an image forming apparatus that is convenient for the operator and highly reliable for the apparatus.

また、請求項14にかかる画像形成方法は、予想画像の予想画像情報を生成し、予想画像情報に基づいて予想画像を表示し、操作者の指先およびスタイラスの少なくともいずれかを含む接触物の接触により、予想画像に関する空間情報を取得し空間的な設定である空間指示項目を識別し、音声情報を受け付けて言語を介する設定である言語指示項目を識別し、空間指示項目および言語指示項目の中から選択して画像形成の処理項目を設定する。この構成によって、ユーザによる各種機能の設定作業に先立って画像データを入力して予想仕上がり状態を表示し、表示された画像への接触および発話によって直感的に画像形成の処理項目を設定できるので、操作者にとっては利便性が高く装置にとっては確実性が高い画像形成方法を提供することができるという効果を奏する。   The image forming method according to claim 14 generates predicted image information of the predicted image, displays the predicted image based on the predicted image information, and contacts a contact object including at least one of an operator's fingertip and stylus. To obtain the spatial information related to the predicted image, identify the spatial instruction item that is a spatial setting, identify the language instruction item that receives the voice information and set the language, and identify the spatial instruction item and the language instruction item. To select an image forming process item. With this configuration, it is possible to input image data prior to setting various functions by the user and display an expected finish state, and to intuitively set processing items for image formation by touching and speaking the displayed image. There is an effect that it is possible to provide an image forming method that is convenient for the operator and highly reliable for the apparatus.

また、請求項15にかかる画像形成方法は、設定された画像形成の処理項目に基づいて予想画像情報を生成して、生成された予想画像情報に基づいて予想画像を表示する。この構成によって、処理項目を設定した後の予想仕上がり状態を表示して、さらに表示された画像への接触および発話によって直感的に画像形成の処理項目を設定できるので、操作者にとっては利便性が高く装置にとっては確実性が高い画像形成方法を提供することができるという効果を奏する。   In the image forming method according to the fifteenth aspect, the predicted image information is generated based on the set image formation processing item, and the predicted image is displayed based on the generated predicted image information. With this configuration, it is possible to display the expected finished state after setting the processing items, and further to set the processing items for image formation intuitively by touching and speaking the displayed image, which is convenient for the operator. The apparatus can provide an image forming method that is high and highly reliable for the apparatus.

また、請求項16にかかる画像形成方法は、空間指示項目および言語指示項目を関連させて記憶し、記憶された空間指示項目および言語指示項目の少なくともいずれかを参照して、画像形成の処理項目を設定する。この構成によって、ユーザによる各種機能の設定作業に先立って画像データを入力して予想仕上がり状態を表示し、表示された画像への接触および発話によって直感的に画像形成の処理項目を設定できるので、操作者にとっては利便性が高く装置にとっては確実性が高い画像形成方法を提供することができるという効果を奏する。   The image forming method according to claim 16 stores the space instruction item and the language instruction item in association with each other, and refers to at least one of the stored space instruction item and the language instruction item to perform an image formation processing item. Set. With this configuration, it is possible to input image data prior to setting various functions by the user and display an expected finish state, and to intuitively set processing items for image formation by touching and speaking the displayed image. There is an effect that it is possible to provide an image forming method that is convenient for the operator and highly reliable for the apparatus.

また、請求項17にかかる画像形成方法は、接触物が表示手段の画像に接触する位置、方向、および領域の少なくとも一つを含む空間情報を取得して空間指示項目を識別し、操作者の発話による音声を受け付けて言語指示項目を識別し、空間指示項目および言語指示項目の中から選択して画像形成の処理項目を設定する。この構成によって、ユーザによる各種機能の設定作業に先立って画像データを入力して予想仕上がり状態を表示し、表示された画像へ接触物により軌跡を描くことおよび発話によって直感的に画像形成の処理項目を設定できるので、操作者にとっては利便性が高く装置にとっては確実性が高い画像形成方法を提供することができるという効果を奏する。   According to a seventeenth aspect of the present invention, there is provided an image forming method for acquiring spatial information including at least one of a position, a direction, and a region where a contact object contacts an image of a display unit, identifying a spatial instruction item, and A speech instruction is received to identify a language instruction item, and a processing item for image formation is set by selecting from the space instruction item and the language instruction item. With this configuration, prior to setting various functions by the user, image data is input to display the expected finished state, and a trace is drawn on the displayed image with a contact object, and processing items for image formation intuitively by utterance Therefore, it is possible to provide an image forming method that is convenient for the operator and highly reliable for the apparatus.

また、請求項18にかかる画像形成方法は、空間指示項目および言語指示項目のうちの一方の指示項目を選択した場合、他方の指示項目の候補の数を制限して選択し、選択された一方および他方の指示項目のうちから画像形成の処理項目を設定する。この構成によって、ユーザによる各種機能の設定作業に先立って画像データを入力して予想仕上がり状態を表示し、表示された画像への接触および発話の一方によって指示項目を識別し、次に、他方の指示項目を絞り込んで画像形成の処理項目を設定できるので、操作者にとっては利便性が高く装置にとっては確実性が高い画像形成方法を提供することができるという効果を奏する。   In the image forming method according to claim 18, when one instruction item of the space instruction item and the language instruction item is selected, the number of candidates for the other instruction item is limited and selected, and the selected one item is selected. The image forming process item is set from the other instruction items. With this configuration, prior to setting the various functions by the user, the image data is input to display the expected finished state, and the instruction item is identified by one of contact and utterance to the displayed image, and then the other Since the processing items for image formation can be set by narrowing down the instruction items, it is possible to provide an image forming method that is convenient for the operator and highly reliable for the apparatus.

また、請求項19にかかる画像形成方法は、一方を空間指示項目とし、かつ、他方を言語指示項目として選択して、画像形成の処理項目を設定する。この構成によって、ユーザによる各種機能の設定作業に先立って画像データを入力して予想仕上がり状態を表示し、表示された画像への接触によって空間指示項目を識別し、次に言語指示項目を絞り込んで画像形成の処理項目を設定できるので、操作者にとっては利便性が高く装置にとっては確実性が高い画像形成方法を提供することができるという効果を奏する。   In the image forming method according to the nineteenth aspect, one is selected as a space instruction item and the other is selected as a language instruction item, and an image forming process item is set. With this configuration, prior to setting the various functions by the user, the image data is input to display the expected finished state, the space indication items are identified by touching the displayed image, and then the language indication items are narrowed down. Since the processing items for image formation can be set, it is possible to provide an image forming method that is convenient for the operator and highly reliable for the apparatus.

また、請求項20にかかる画像形成方法は、一方を言語指示項目とし、かつ、他方を空間指示項目として選択して、画像形成の処理項目を設定する。この構成によって、ユーザによる各種機能の設定作業に先立って画像データを入力して予想仕上がり状態を表示し、音声により言語指示項目を識別し、次に、表示された画像への接触によって絞り込んで空間指示項目を識別し、画像形成の処理項目を設定できるので、操作者にとっては利便性が高く装置にとっては確実性が高い画像形成方法を提供することができるという効果を奏する。   In the image forming method according to the twentieth aspect, an image forming process item is set by selecting one as a language instruction item and the other as a space instruction item. With this configuration, prior to setting the various functions by the user, the image data is input to display the expected finished state, the language instruction items are identified by voice, and then the space is narrowed down by touching the displayed image. Since the instruction item can be identified and the image formation processing item can be set, it is possible to provide an image forming method that is convenient for the operator and highly reliable for the apparatus.

また、請求項21にかかる画像形成方法は、空間指示項目に対する確実度の情報である空間確実度を識別し、言語指示項目に対する確実度の情報である言語確実度を識別し、決定された空間確実度および言語確実度とに基づいて、画像形成の処理項目を設定するものであることを特徴とする。この構成によって、ユーザによる各種機能の設定作業に先立って画像データを入力して予想仕上がり状態を表示し、表示された画像への接触および発話により直感的に画像形成の処理項目をそれぞれに確実度を加味して設定できるので、操作者にとっては利便性が高く装置にとっては確実性が高い画像形成方法を提供することができるという効果を奏する。   The image forming method according to claim 21 identifies a spatial certainty that is information of certainty for the space instruction item, identifies a language certainty that is information of certainty for the language instruction item, and determines the determined space. An image forming process item is set based on the certainty level and the language certainty level. With this configuration, the user can input image data and display the expected finished state prior to setting the various functions by the user, and each image formation processing item can be intuitively determined by touching and speaking the displayed image. Therefore, it is possible to provide an image forming method that is convenient for the operator and highly reliable for the apparatus.

また、請求項22にかかる画像形成方法は、空間指示項目と言語指示項目との関連度の情報である項目関連度を決定し、空間指示項目、言語指示項目、および決定された項目関連度に基づいて画像形成の処理項目を設定する。この構成によって、ユーザによる各種機能の設定作業に先立って画像データを入力して予想仕上がり状態を表示し、表示された画像への接触および発話により直感的に画像形成の処理項目をそれぞれの項目の関連性を表す関連度を加味して設定できるので、操作者にとっては利便性が高く装置にとっては確実性が高い画像形成方法を提供することができるという効果を奏する。   An image forming method according to a twenty-second aspect determines an item relevance level, which is information on a degree of association between a space instruction item and a language instruction item, and determines the space instruction item, the language instruction item, and the determined item relevance degree. Based on this, processing items for image formation are set. With this configuration, prior to setting various functions by the user, image data is input to display an expected finished state, and processing items for image formation are intuitively determined by touching and speaking the displayed image. Since it can be set in consideration of the relevance level representing relevance, it is possible to provide an image forming method that is convenient for the operator and highly reliable for the apparatus.

また、請求項23にかかる画像形成方法は、空間確実度、言語確実度、および決定された項目関連度に対してそれぞれ重みを付けた重み付け加算に従って処理項目を設定する。この構成によって、ユーザによる各種機能の設定作業に先立って画像データを入力して予想仕上がり状態を表示し、表示された画像への接触および発話により直感的に画像形成の処理項目をそれぞれの項目の確実度と関連性を表す関連度を加味して設定できるので、操作者にとっては利便性が高く装置にとっては確実性が高い画像形成方法を提供することができるという効果を奏する。   In the image forming method according to the twenty-third aspect, the processing items are set in accordance with weighted addition in which the space certainty, the language certainty, and the determined item relevance are weighted. With this configuration, prior to setting various functions by the user, image data is input to display an expected finished state, and processing items for image formation are intuitively determined by touching and speaking the displayed image. Since it can be set in consideration of the degree of certainty and the degree of relation representing the relation, it is possible to provide an image forming method that is convenient for the operator and highly reliable for the apparatus.

また、請求項24にかかる画像形成方法は、入力した画像データを解析して原稿特性値を抽出し、抽出された原稿特性値に基づいて予想画像情報を生成する。この構成によって、ユーザによる各種機能の設定作業に先立って画像データを入力して原稿特性値を読み取って予想仕上がり状態を表示し、原稿特性を反映して表示された画像への接触および発話によって直感的に画像形成の処理項目を設定できるので、操作者にとっては利便性が高く装置にとっては確実性が高い画像形成方法を提供することができるという効果を奏する。   According to a twenty-fourth aspect of the present invention, the input image data is analyzed to extract a document characteristic value, and predicted image information is generated based on the extracted document characteristic value. With this configuration, prior to setting the various functions by the user, the image data is input, the original characteristic value is read to display the expected finished state, and the intuition is obtained by touching and speaking the displayed image reflecting the original characteristic. In addition, since the image formation processing items can be set, it is possible to provide an image forming method that is convenient for the operator and highly reliable for the apparatus.

また、請求項25にかかるプログラムは、請求項14〜24のいずれか1つに記載の画像形成方法をコンピュータに実行させることができるという効果を奏する。   The program according to claim 25 has the effect of allowing a computer to execute the image forming method according to any one of claims 14 to 24.

また、請求項26にかかる画像処理装置は、予想画像の予想画像情報を生成し、予想画像情報に基づいて予想画像を表示し、操作者の指先およびスタイラスの少なくともいずれかを含む接触物の接触により、予想画像に関する空間情報を取得し空間的な設定である空間指示項目を識別し、音声情報を受け付けて言語を介する設定である言語指示項目を識別し、空間指示項目および言語指示項目の中から選択して画像形成の処理項目を設定する。この構成によって、ユーザによる各種機能の設定作業に先立って画像データを入力して予想仕上がり状態を表示し、表示された画像への接触および発話によって直感的に画像処理の処理項目を設定できるので、操作者にとっては利便性が高く装置にとっては確実性が高い画像処理装置を提供することができるという効果を奏する。   The image processing apparatus according to claim 26 generates predicted image information of the predicted image, displays the predicted image based on the predicted image information, and contacts a contact object including at least one of an operator's fingertip and stylus. To obtain the spatial information related to the predicted image, identify the spatial instruction item that is a spatial setting, identify the language instruction item that receives the voice information and set the language, and identify the spatial instruction item and the language instruction item. To select an image forming process item. With this configuration, it is possible to input image data prior to setting various functions by the user and display the expected finished state, and intuitively set the processing items for image processing by touching and speaking the displayed image. There is an effect that it is possible to provide an image processing apparatus that is convenient for the operator and highly reliable for the apparatus.

また、請求項27にかかる画像処理装置は、設定された画像形成の処理項目に基づいて予想画像情報を生成して、生成された予想画像情報に基づいて予想画像を表示する。この構成によって、処理項目を設定した後の予想仕上がり状態を表示して、さらに表示された画像への接触および発話によって直感的に画像処理の処理項目を設定できるので、操作者にとっては利便性が高く装置にとっては確実性が高い画像処理装置を提供することができるという効果を奏する。   According to a twenty-seventh aspect of the present invention, the image processing apparatus generates predicted image information based on the set image formation processing item, and displays the predicted image based on the generated predicted image information. With this configuration, it is possible to display the expected finished state after setting the processing items, and further intuitively set the processing items for image processing by touching and speaking the displayed image, which is convenient for the operator. For the apparatus, an image processing apparatus having high reliability can be provided.

また、請求項28にかかる画像処理装置は、空間指示項目および言語指示項目を関連させて記憶し、記憶された空間指示項目および言語指示項目の少なくともいずれかを参照して、画像形成の処理項目を設定する。この構成によって、ユーザによる各種機能の設定作業に先立って画像データを入力して予想仕上がり状態を表示し、表示された画像への接触および発話によって直感的に関連性のある画像処理の処理項目を設定できるので、操作者にとっては利便性が高く装置にとっては確実性が高い画像処理装置を提供することができるという効果を奏する。   An image processing apparatus according to a twenty-eighth aspect stores a space instruction item and a language instruction item in association with each other, and refers to at least one of the stored space instruction item and language instruction item to perform an image formation processing item. Set. With this configuration, prior to setting the various functions by the user, the image data is input to display the expected finished state, and the processing items of image processing that are intuitively related by touching and speaking the displayed image are displayed. Since it can be set, it is possible to provide an image processing apparatus that is convenient for the operator and highly reliable for the apparatus.

また、請求項29にかかる画像処理システムは、ネットワーク接続され、画像データを入力して画像データ処理および印刷仕上げ処理後の予想画像を表示し、操作者からの画像形成の処理項目の設定を受け付ける画像処理システムであって、それぞれのうち2つ以上がネットワーク接続され、予想画像の予想画像情報を生成する予想画像情報生成手段と、予想画像情報生成手段によって生成された予想画像情報に基づいて予想画像を表示する表示手段と、予想画像を表示する表示手段への、操作者の指先およびスタイラスの少なくともいずれかを含む接触物の接触により、予想画像に関する空間情報を取得し空間的な設定である空間指示項目を識別する空間項目識別手段と、音声情報を受け付けて受け付けた音声情報から言語を介する設定である言語指示項目を識別する言語項目識別手段と、空間項目識別手段により識別された空間指示項目および言語項目識別手段によって識別された言語指示項目の中から選択して、画像形成の処理項目を設定する設定手段と、を備えた。この構成によって、ユーザによる各種機能の設定作業に先立って画像データを入力して予想仕上がり状態を表示し、表示された画像への接触および発話によって直感的に画像処理の処理項目を設定できるので、操作者にとっては利便性が高くシステムにとっては確実性が高いネットワーク接続された画像処理システムを提供することができるという効果を奏する。   An image processing system according to a twenty-ninth aspect is connected to a network, displays image data after inputting image data and a predicted image after print finishing processing, and accepts setting of processing items for image formation from an operator. An image processing system, in which two or more of each are connected to a network, and predicted image information generating means for generating predicted image information of the predicted image, and prediction based on the predicted image information generated by the predicted image information generating means Spatial information related to the predicted image is obtained by contact of a contact object including at least one of the fingertip of the operator and the stylus with the display unit that displays the image and the display unit that displays the predicted image. Spatial item identification means for identifying spatial indication items, and setting via language from voice information received and received voice information A language item identifying means for identifying a language instruction item to be selected, a space instruction item identified by the space item identifying means, and a language instruction item identified by the language item identifying means, and setting a processing item for image formation And setting means. With this configuration, it is possible to input image data prior to setting various functions by the user and display the expected finished state, and intuitively set the processing items for image processing by touching and speaking the displayed image. There is an effect that it is possible to provide a network-connected image processing system that is convenient for the operator and highly reliable for the system.

また、請求項30にかかる画像処理システムは、予想画像情報生成手段は、設定手段によって設定された画像形成の処理項目に基づいて予想画像情報を生成するものであり、表示手段は、予想画像情報生成手段によって生成された予想画像情報に基づいて予想画像を表示する。この構成によって、処理項目を設定した後の予想仕上がり状態を表示して、さらに表示された画像への接触および発話によって直感的に画像処理の処理項目を設定できるので、操作者にとっては利便性が高くシステムにとっては確実性が高いネットワーク接続された画像処理システムを提供することができるという効果を奏する。   In the image processing system according to the thirty-third aspect, the predicted image information generation unit generates the predicted image information based on the image formation processing items set by the setting unit, and the display unit includes the predicted image information. The predicted image is displayed based on the predicted image information generated by the generating means. With this configuration, it is possible to display the expected finished state after setting the processing items, and further intuitively set the processing items for image processing by touching and speaking the displayed image, which is convenient for the operator. It is possible to provide an image processing system connected to a network that is high and highly reliable for the system.

また、請求項31にかかる画像処理システムは、ネットワークに接続されて、空間指示項目および言語指示項目を関連させて記憶する設定項目記憶手段を、さらに備え、設定手段は、設定項目記憶手段によって記憶された空間指示項目および言語指示項目の少なくともいずれかを参照して、画像形成の処理項目を設定する。この構成によって、ユーザによる各種機能の設定作業に先立って画像データを入力して予想仕上がり状態を表示し、表示された画像への接触および発話によって直感的に関連性のある画像処理の処理項目を設定できるので、操作者にとっては利便性が高くシステムにとっては確実性が高いネットワーク接続された画像処理システムを提供することができるという効果を奏する。   The image processing system according to a thirty-first aspect further includes setting item storage means connected to the network and storing the space instruction item and the language instruction item in association with each other, and the setting means is stored by the setting item storage means. The processing items for image formation are set with reference to at least one of the designated space instruction item and language instruction item. With this configuration, prior to setting the various functions by the user, the image data is input to display the expected finished state, and the processing items of image processing that are intuitively related by touching and speaking the displayed image are displayed. Since it can be set, it is possible to provide a network-connected image processing system that is convenient for the operator and highly reliable for the system.

以下に、本発明にかかる画像形成装置、画像形成方法、その方法をコンピュータに実行させるプログラム、画像処理装置、および画像処理システムの最良な実施の形態を図面に基づいて詳細に説明する。なお、この実施の形態によりこの発明が限定されるものではない。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Exemplary embodiments of an image forming apparatus, an image forming method, a program for causing a computer to execute the method, an image processing apparatus, and an image processing system according to the present invention will be described below in detail with reference to the drawings. Note that the present invention is not limited to the embodiments.

(第1の実施の形態)
図1は、本発明の実施の形態1による画像形成装置の機能的ブロック図である。図1に示す画像形成装置10は、スキャナ11、ADF(オート・ドキュメント・フィーダ)111、スキャナコントローラ112、画像記憶部12、画像処理部13、プリンタ14、プリンタコントローラ142、仕上げ処理部141、操作表示部15、操作表示制御部151、システム制御部16、および通信制御部17を備える。また、画像形成装置10は、通信制御部17を介してネットワーク18と接続されている。そして、画像形成装置10は、原稿19の画像を読み取って画像処理を施した後、印刷物20として出力する。
(First embodiment)
FIG. 1 is a functional block diagram of an image forming apparatus according to Embodiment 1 of the present invention. An image forming apparatus 10 shown in FIG. 1 includes a scanner 11, an ADF (auto document feeder) 111, a scanner controller 112, an image storage unit 12, an image processing unit 13, a printer 14, a printer controller 142, a finishing processing unit 141, and an operation. A display unit 15, an operation display control unit 151, a system control unit 16, and a communication control unit 17 are provided. The image forming apparatus 10 is connected to the network 18 via the communication control unit 17. Then, the image forming apparatus 10 reads the image of the document 19 and performs image processing, and then outputs it as a printed matter 20.

スキャナ11は、スキャナによって原稿19のイメージをディジタル画像データに変換する。なお、このスキャナ11は、複数ページの原稿をセットすると、読取位置に1枚ずつ順に繰り出しながら連続して自動的に読み込みを行うことができるADF111を搭載している。また、このADF111は、用紙の片面に印刷された片面原稿だけでなく、両面に印刷された両面原稿を反転させて自動的に読み込むことが可能である。スキャナコントローラ112は、システム制御部16の命令を受け、スキャナ11を制御する。   The scanner 11 converts the image of the document 19 into digital image data using the scanner. The scanner 11 is equipped with an ADF 111 that can automatically and continuously read out documents one by one at a reading position when a plurality of pages of documents are set. Further, the ADF 111 can automatically read not only a single-sided original printed on one side of a sheet but also a double-sided original printed on both sides. The scanner controller 112 receives a command from the system control unit 16 and controls the scanner 11.

画像記憶部12は、スキャナ11で読み取った画像データや外部から入力された画像データ等を一時的に保存しておくバッファメモリである。   The image storage unit 12 is a buffer memory that temporarily stores image data read by the scanner 11, image data input from the outside, and the like.

画像処理部13は、スキャナから送られ画像記憶部12に一時的に保存された多値データに対してγ補正やMTF補正処理等を施した後、スライス処理やディザ処理のような階調処理を施して2値(または多値)化処理を施す。また、画像処理部13は、ユーザが設定した機能に対応した各種の画像処理(拡大/縮小、濃度/色の調整など)やレイアウト加工処理(両面印刷/片面印刷、集約印刷、余白サイズの調整など)を行う。   The image processing unit 13 performs gradation processing such as slice processing and dither processing after performing γ correction, MTF correction processing, and the like on multi-value data sent from the scanner and temporarily stored in the image storage unit 12. To give a binary (or multi-value) process. The image processing unit 13 also performs various image processing (enlargement / reduction, density / color adjustment, etc.) corresponding to the function set by the user and layout processing (double-sided / single-sided printing, aggregate printing, margin size adjustment). Etc.).

画像処理部13は、また空間項目識別部131,言語項目識別部132、処理項目設定部133、画面情報生成部134、および設定項目記憶部135を備える。画像情報生成部134は、入力した画像データに従って、表示パネル15cで表示する予想仕上がり画像を生成する予想仕上がり画像情報を生成する。画像処理部13は本発明の特徴的な部分であり、画像処理部13が備える各部についてはさらに詳しく後述する。   The image processing unit 13 further includes a space item identification unit 131, a language item identification unit 132, a processing item setting unit 133, a screen information generation unit 134, and a setting item storage unit 135. The image information generation unit 134 generates predicted finished image information for generating an expected finished image to be displayed on the display panel 15c according to the input image data. The image processing unit 13 is a characteristic part of the present invention, and each unit included in the image processing unit 13 will be described in more detail later.

プリンタ14は、ここでは画像処理部13で処理された画像データに基づいて光ビームを偏向走査させ、感光体上に形成した静電潜像にトナーを使って現像し、生成されたトナー画像を転写紙に転写して、定着処理を行う電子写真技術を用いたプリンタである。プリンタコントローラ142は、システム制御部16の命令を受けてプリンタを制御する。   Here, the printer 14 deflects and scans the light beam based on the image data processed by the image processing unit 13, develops the electrostatic latent image formed on the photoreceptor using toner, and generates the generated toner image. This is a printer using an electrophotographic technique for transferring to a transfer paper and performing a fixing process. The printer controller 142 receives a command from the system control unit 16 and controls the printer.

プリンタ14は、仕上げ処理部141を搭載している。仕上げ処理部141は、ユーザの設定に基づいて、印刷処理が施された印刷物20を部数やページ単位で仕分けを行うソート処理、複数枚の印刷媒体を揃えてステープルで綴じるステープル処理、あるいは、複数枚の印刷媒体をバインダーやファイルに綴じるためのパンチ穴を空けるパンチ穴処理といった仕上げ処理を行う。   The printer 14 includes a finishing processing unit 141. The finishing processing unit 141 performs sorting processing for sorting the printed matter 20 that has been subjected to printing processing by the number of copies or page units, stapling processing for aligning a plurality of print media and binding them with staples based on user settings, or a plurality of finishing processing units 141 A finishing process such as a punching process for punching holes for binding sheets of print media into a binder or file is performed.

操作表示部15は、マイク15a、タッチパネル15b、および表示パネル15cを備え、マイク15aから音声で設定内容を入力したり、キーボードやタッチパネル15bを使って設定内容を入力したり、予想仕上がり画面や画面の仕上げを設定する設定内容のメニュー項目をタッチパネル15bに表示することができる。タッチパネル15bは、また、視覚的表示の他、スピーカ(不図示)による音声出力を行うこととしてもよい。   The operation display unit 15 includes a microphone 15a, a touch panel 15b, and a display panel 15c. The operation display unit 15 is used to input setting contents by voice from the microphone 15a, to input setting contents using the keyboard or the touch panel 15b, or to obtain an expected finished screen or screen. The menu item of the setting content for setting the finishing can be displayed on the touch panel 15b. The touch panel 15b may perform audio output by a speaker (not shown) in addition to visual display.

操作表示部15は、画像形成装置で実行したい機能を設定画面のメニュー項目として表示し、表示されたメニュー項目の中からユーザによる設定入力を受け付けるためのものであり、例えば、原稿の状態に応じたスキャナ11における読み取り条件の設定、読み取った画像データを加工する画像処理部13における設定、プリンタ14における印刷条件の設定、あるいは、印刷後の印刷物に対してソート、ステープル、パンチ穴などの仕上げ処理を行う仕上げ処理部141などの設定を受け付けるものである。   The operation display unit 15 displays functions desired to be executed by the image forming apparatus as menu items on the setting screen, and accepts setting input by the user from the displayed menu items. Setting of reading conditions in the scanner 11, setting in the image processing unit 13 that processes the read image data, setting of printing conditions in the printer 14, or finishing processing such as sorting, stapling, punching holes, etc. for the printed matter after printing The setting of the finishing processing unit 141 or the like for performing is received.

ここで、操作表示部15は、例えば画像形成装置で操作入力を行うタッチパネル15bとして構成できる。タッチパネル15bは、設定のためのメニュー項目を表示するほか、空間項目識別部131により生成した仕上がり予想情報を表示することとしても良い。仕上がり予想情報が画像やテキストの場合、タッチパネル15bに表示され、仕上がり予想情報が音声の場合、スピーカ(不図示)から音声出力してもよい。   Here, the operation display unit 15 can be configured as, for example, a touch panel 15b that performs operation input in the image forming apparatus. The touch panel 15b may display menu items for setting, and may also display predicted finish information generated by the space item identification unit 131. When the predicted finish information is an image or text, it is displayed on the touch panel 15b, and when the predicted finish information is sound, the sound may be output from a speaker (not shown).

表示パネル15cは、タッチパネル15bと一体に構成しても良く、また、画像形成装置が備える専有の表示装置を用いても良い。   The display panel 15c may be integrated with the touch panel 15b, or a dedicated display device included in the image forming apparatus may be used.

操作表示制御部151は、操作表示部15との入出力を制御、例えば、画像処理部13によって処理されたデータを操作表示部15のタッチパネル15bおよびスピーカ(不図示)に出力制御する。あるいは、操作表示制御部151は、操作表示部15のマイク15aおよびタッチパネル15bからの入力制御を行う。   The operation display control unit 151 controls input / output with the operation display unit 15, for example, controls output of data processed by the image processing unit 13 to a touch panel 15 b and a speaker (not shown) of the operation display unit 15. Alternatively, the operation display control unit 151 performs input control from the microphone 15 a and the touch panel 15 b of the operation display unit 15.

システム制御部16は、各構成部と接続されていて、画像形成装置10全体の制御を行うものである。このシステム制御部16は、不図示のCPU、ROM、RAMなどから構成されており、CPUがROMに格納された基本プログラムに基づいて、RAMのワーク領域を利用しながら各種の処理を行っている。   The system controller 16 is connected to each component and controls the entire image forming apparatus 10. The system control unit 16 includes a CPU, a ROM, a RAM, and the like (not shown), and the CPU performs various processes based on a basic program stored in the ROM while using a RAM work area. .

通信制御部17は、LAN(ローカル・エリア・ネットワーク)やインターネットなどのネットワーク18と接続され、通信プロトコルに従ってネットワークに接続された他の機器との間で画像データや制御データ等のやり取りを行うものである。   The communication control unit 17 is connected to a network 18 such as a LAN (local area network) or the Internet, and exchanges image data, control data, and the like with other devices connected to the network according to a communication protocol. It is.

ここで、本発明に特徴的な画像処理部13についてさらに説明する。画面情報生成部134は、入力した画像データに従って、表示パネル15cに仕上がり予想画面を表示する仕上がり予想画面情報を生成する。操作表示制御部151は、生成された仕上がり予想画面情報に従って、表示パネル15cに仕上がり予想画面を表示させる。   Here, the image processing unit 13 characteristic of the present invention will be further described. The screen information generation unit 134 generates predicted finish screen information for displaying a predicted finish screen on the display panel 15c according to the input image data. The operation display control unit 151 displays a predicted finished screen on the display panel 15c according to the generated predicted finished screen information.

ここで、表示パネル15cとタッチパネル15bは図面上別々に記載されているが、一体的に構成する。表示パネル15cに操作者の指などが接触することは、同時にタッチパネル15bが接触入力を受け付ける。   Here, although the display panel 15c and the touch panel 15b are described separately in the drawing, they are integrally configured. When the operator's finger touches the display panel 15c, the touch panel 15b accepts a contact input at the same time.

操作者が、表示部パネル15cに表示された仕上がり予想画面を見ながら指やスタイラスペンなど(以下ポインターと記す)で接触することによって、タッチパネル15bは、表示された予想仕上がり画面上の印刷物の仕上がり状態における空間的位置情報の入力を受け付ける。空間項目識別部131は、タッチパネル15bによって受け付けられた空間的位置情報を解析し、例えば余白の幅の値などのような空間的な設定項目を識別する。   When the operator touches with a finger, a stylus pen or the like (hereinafter referred to as a pointer) while looking at the predicted finished screen displayed on the display unit panel 15c, the touch panel 15b finishes the printed matter on the displayed predicted finished screen. Accept input of spatial location information in state. The space item identification unit 131 analyzes the spatial position information received by the touch panel 15b, and identifies a spatial setting item such as a margin width value.

操作表示部15のマイク15aは、操作者の発話による音声情報の入力を受け付ける。言語項目識別部132は、マイク15aを介して入力された音声情報を音声認識して言語解析を行い、言語情報を介した設定である言語指示項目を認識する。   The microphone 15a of the operation display unit 15 receives voice information input by the operator's utterance. The language item identifying unit 132 recognizes speech information input through the microphone 15a and performs language analysis, and recognizes a language instruction item that is set via the language information.

処理項目設定部133は、空間項目識別部131によって認識された空間的な設定項目、および言語項目識別部132によって認識された言語的な設定項目の組合せの中から選択して、画像形成時に施す処理項目を設定する。   The processing item setting unit 133 selects from the combination of the spatial setting item recognized by the space item identification unit 131 and the linguistic setting item recognized by the language item identification unit 132, and applies them at the time of image formation. Set the processing item.

ここで、選択される空間的な設定項目は、設定項目記憶部135に記憶されており、空間項目識別部131が設定項目記憶部135の中から空間指示項目を候補として取得する。処理項目設定部133は、空間項目識別部131によって候補として選択された空間指示項目の中から特定する。空間項目識別部131は、例えば、実際に取得した位置情報と、設定項目記憶部135に記憶された空間指示項目における位置情報との誤差を算出し、算出された誤差の小さな順に並べて特定する。   Here, the spatial setting item to be selected is stored in the setting item storage unit 135, and the space item identification unit 131 acquires the space instruction item from the setting item storage unit 135 as a candidate. The process item setting unit 133 specifies the space instruction item selected as a candidate by the space item identification unit 131. For example, the space item identification unit 131 calculates an error between the actually acquired position information and the position information in the space instruction item stored in the setting item storage unit 135, and specifies the errors by arranging them in ascending order of the calculated errors.

また、言語的な設定項目は、設定項目記憶部135に記憶されており、言語項目識別部132が設定項目記憶部135の中から言語指示項目を候補として取得する。処理項目設定部133は、言語項目識別部132によって候補として選択された言語指示項目の中から特定する。言語項目識別部132は、例えば、実際に取得した音声情報と、設定項目記憶部135に記憶された言語指示項目における音声情報との誤差を算出し、算出された誤差の小さな順に並べて特定する。   Further, the linguistic setting item is stored in the setting item storage unit 135, and the language item identification unit 132 acquires the language instruction item from the setting item storage unit 135 as a candidate. The process item setting unit 133 specifies the language instruction item selected as a candidate by the language item identification unit 132. For example, the language item identification unit 132 calculates the error between the actually acquired voice information and the voice information in the language instruction item stored in the setting item storage unit 135, and specifies the errors by arranging them in ascending order of the calculated errors.

処理項目設定部133は、特定した空間指示項目および言語指示項目を組み合わせて画像形成のための処理項目を設定する。   The process item setting unit 133 sets a process item for image formation by combining the specified space instruction item and language instruction item.

画面情報生成部134は、処理項目設定部133によって設定された処理項目に従って、再び仕上がり予想画面情報を生成し、表示パネル15cに表示する。   The screen information generation unit 134 generates the predicted finished screen information again according to the processing item set by the processing item setting unit 133 and displays it on the display panel 15c.

さらに具体的な設定入力について説明する。ユーザは、タッチパネル15b上で、ポインター(ユーザーの指先や専用ペンなど)によって、例えば、仕上がり予想図上の特定の位置、方向、領域、形状に関して入力する。空間項目識別部131は、例えば、接触位置については、スタンプ印字やパンチ穴の位置をいくつかの候補のうちから、ポインターの接触位置に最も近い位置を識別する。方向については、空間項目識別部131は、例えば、両面コピー時の開き方向、ステープルを止める方向など、いくつかの候補の中からポインターが接触後、離れるまでの移動方向に最も近い方向を識別する。領域については、空間項目識別部131は、例えば、余白領域や消去領域として指定される領域を、ポインターが接触後、離れるまでの軌跡を矩形として識別し、識別した矩形領域を指定する数値に最も近い数値を選択する。   More specific setting input will be described. On the touch panel 15b, the user inputs, for example, a specific position, direction, region, and shape on the predicted finished drawing using a pointer (such as a user's fingertip or a dedicated pen). For example, with respect to the contact position, the space item identification unit 131 identifies the position closest to the contact position of the pointer from among several candidates for the position of stamp printing or punch holes. Regarding the direction, the space item identifying unit 131 identifies the direction closest to the moving direction until the pointer leaves after touching, from among several candidates, such as the opening direction at the time of double-sided copying, the direction to stop stapling, etc. . For the area, for example, the space item identifying unit 131 identifies the area designated as a blank area or erased area as a rectangle from the point of contact of the pointer until it leaves, and is the most numerical value for designating the identified rectangular area. Choose a close number.

ユーザが日付印字の書式として「2004/2/23」を指示する場合、空間項目識別部131はポインターが接触してから離れるまでの軌跡として斜線の組である「//」のような接触形状から識別し、また、「2004.2.23」を指示する場合、空間項目識別部131はポインターの接触により生成されるピリオドの組みである「..」のような接触形状を識別する。   When the user designates “2004/2/23” as the date printing format, the space item identification unit 131 has a contact shape such as “//” that is a set of diagonal lines as a trajectory from when the pointer contacts until it leaves. When “2004.2.23” is indicated, the space item identifying unit 131 identifies a contact shape such as “..”, which is a set of periods generated by touching the pointer.

言語項目識別部132は、取得した音声を音声認識によって認識し、設定項目記憶部135に記憶されている設定項目情報の中から取得した言語指示項目を候補として識別する。ここでいう言語指示項目とは例えば、「スタンプ印字」「パンチ」「原稿セット方向」「ステープル」「余白」「消去」「日付印字」など、ユーザの発話する言葉で表現される複写機の処理の種類である。   The language item identification unit 132 recognizes the acquired voice by voice recognition, and identifies the language instruction item acquired from the setting item information stored in the setting item storage unit 135 as a candidate. The language instruction items here are, for example, “stamp printing”, “punching”, “original setting direction”, “stapling”, “margin”, “erasing”, “date printing”, etc. Of the kind.

処理項目設定部133は、空間項目識別部131および言語項目識別部132が識別した指示項目を相補的に組み合わせることにより、ユーザの指示した設定項目を相補的に特定して、画像形成装置へ設定する。   The processing item setting unit 133 complementarily specifies the setting items specified by the user by combining the instruction items identified by the space item identification unit 131 and the language item identification unit 132 in a complementary manner, and sets the setting items in the image forming apparatus. To do.

設定項目記憶部135は、処理項目、位置項目、方向項目、領域項目、形状項目などの組み合わせ可能な設定変更項目を記憶している。処理項目設定部133は、表示パネル15cに表示されたメニュー画面からの変更入力を受け付けた場合、設定項目記憶部135に記憶されているこれらの項目からの組合せを選択することによって、設定変更を行うことができる。   The setting item storage unit 135 stores setting change items that can be combined such as processing items, position items, direction items, area items, and shape items. When the process item setting unit 133 receives a change input from the menu screen displayed on the display panel 15c, the process item setting unit 133 selects a combination from these items stored in the setting item storage unit 135 to change the setting. It can be carried out.

図2は、実施の形態1による画像形成装置において、操作者によるタッチパネルへの接触と発話によって画像処理項目が設定されることを説明する図である。図3は、タッチパネルへの接触と発話によって画像処理項目が設定された仕上がり予想画面と、さらに画面上から設定を受け付けることを説明する図である。図4は、タッチパネルへの接触と発話によって画像処理項目が設定された仕上がり予想画面上から、両面コピーであることの設定入力を受け付けることを説明する図である。   FIG. 2 is a diagram illustrating that image processing items are set by an operator touching the touch panel and speaking in the image forming apparatus according to the first embodiment. FIG. 3 is a diagram illustrating a predicted finish screen in which image processing items are set by touching the touch panel and speaking, and accepting settings from the screen. FIG. 4 is a diagram for explaining accepting a setting input indicating duplex copying from a predicted finish screen on which image processing items are set by touching the touch panel and speaking.

ここでは、印刷すべきページの右上に、2004/2/25のような書式で、日付印字を指定しようとする。ユーザによる設定の操作に先立って、最初、原稿読み取り装置によって読み取られた画像データから、デフォルトの設定項目を反映した予想仕上がり画像が仕上がり予想図2bとして表示されている(図2)。ユーザはポインターで接触軌跡2cのように接触する。接触によって、タッチパネル15bは位置情報を取得する。次に、ユーザは、「日付印字」と発話する(ユーザの発声2d)。発話によってマイク15aは、音声情報を取得する。   Here, date printing is to be designated in the upper right of the page to be printed in a format such as 2004/2/25. Prior to the setting operation by the user, a predicted finished image reflecting default setting items is displayed as a predicted finished drawing 2b from the image data read by the original reading apparatus (FIG. 2). The user touches with a pointer like a contact locus 2c. By touching, the touch panel 15b acquires position information. Next, the user speaks “date printing” (user's utterance 2d). The microphone 15a acquires voice information by the utterance.

空間項目識別部131は、斜線の位置情報から日付のための斜線であると識別して空間指示項目を選択し、言語項目識別部132は「日付印字」と発話された音声から日付であることを識別し言語指示項目を選択する。処理項目設定部133は、指示項目を組み合わせて「2004/2/25」のような書式で仕上がり予想情報図2b(図2)の右上に日付印字を設定し、設定された日付印字が付された仕上がり予想情報図3b(図3)が表示パネル15cに表示される。図3に表示された仕上がり予想情報図3bは、この操作の時点までに設定された項目を反映した仕上がり予想画像である。   The space item identification unit 131 selects the space instruction item by identifying the date as a diagonal line for the date from the hatched position information, and the language item identification unit 132 is the date from the voice uttered “date printing”. Is selected and a language instruction item is selected. The process item setting unit 133 sets the date printing in the upper right of the predicted finished information figure 2b (FIG. 2) in a format such as “2004/2/25” by combining the instruction items, and the set date printing is added. The finished predicted information FIG. 3b (FIG. 3) is displayed on the display panel 15c. The predicted finish information displayed in FIG. 3 is a predicted finish image reflecting the items set up to the time of this operation.

表1は、言語指示項目と空間指示項目とから画像形成の処理項目を特定するテーブルの一例である。   Table 1 is an example of a table for specifying processing items for image formation from language instruction items and space instruction items.

Figure 2006086755
Figure 2006086755

ポインターの接触によって日付印字のための斜線が識別され、発声によって言語指示項目のうち「日付印字」が識別され、画像処理部13が備える日付機能によって具体的な日付情報であるYYYY/MM/DD(年月日情報)が形状項目として対応付けられる。   Diagonal lines for date printing are identified by touching the pointer, “date printing” is identified among the language instruction items by utterance, and specific date information YYYY / MM / DD is identified by the date function provided in the image processing unit 13. (Date information) is associated as a shape item.

次に、ユーザは表示された画面上で、ユーザの接触軌跡3c(図3)のように指で接触しながら軌跡を描いて、ユーザの発声3dである「余白」と、発話を行う。これにより、空間項目識別部131は接触軌跡を矩形情報であると解析し、言語項目識別部132は発話を言語指示項目として余白の設定であると識別し、処理項目設定部133は、識別された矩形情報と余白設定である情報から接触軌跡3cの水平方向の幅を余白幅として設定し、画面情報生成部134は、図4に示された仕上がり予想情報図4bのように画像が全体的に右にシフトされて余白の幅が確保された形の仕上がり予想図を表示するための仕上がり予想画面情報を生成し、表示パネル15cは、新たな仕上がり予想画面を表示する(図4)。   Next, the user draws a trajectory while touching with a finger like the user's contact trajectory 3c (FIG. 3) on the displayed screen, and utters “margin” which is the user's utterance 3d. Thereby, the space item identifying unit 131 analyzes the contact locus as rectangular information, the language item identifying unit 132 identifies the utterance as the language instruction item and setting the margin, and the processing item setting unit 133 is identified. The horizontal width of the contact locus 3c is set as the margin width from the rectangle information and the margin setting information, and the screen information generation unit 134 displays the entire image as shown in the predicted finished information FIG. 4b shown in FIG. To the right to generate a predicted finished screen information for displaying a finished predicted image with a margin width secured, and the display panel 15c displays a new predicted finished screen (FIG. 4).

次にユーザは、表示パネル15cに表示された仕上がり予想情報図4b(図4)上で、両面コピーの場合の開き方向を指定する。ユーザは指先の接触により接触軌跡4c(図4)のような軌跡をタッチパネル15b上で描く。そして、「両面コピー」発声する(ユーザの発声4d)。この指先の接触および発声による2つの入力によって、空間項目識別部131および言語項目識別部132によって接触軌跡の方向4cがページをめくる方向として識別され、処理項目設定部133は開き方向左右の両面コピーとして設定を受け付ける。受け付けられた設定によって、画目情報生成部134は、表示画面のための画面情報を生成する。この時、3次元的に表示できる画面情報を生成することが望ましい。   Next, the user designates an opening direction in the case of double-sided copying on the predicted finish information figure 4b (FIG. 4) displayed on the display panel 15c. The user draws a locus such as the contact locus 4c (FIG. 4) on the touch panel 15b by the touch of the fingertip. Then, “duplex copy” is uttered (user utterance 4d). By the two inputs by the fingertip contact and utterance, the space item identification unit 131 and the language item identification unit 132 identify the contact locus direction 4c as the page turning direction, and the processing item setting unit 133 performs double-sided copying in the opening direction. Accept the settings as Based on the accepted setting, the stroke information generation unit 134 generates screen information for the display screen. At this time, it is desirable to generate screen information that can be displayed three-dimensionally.

図5は、両面コピーであることが設定された仕上がり予想画面の表示の一例を示す模式図である。図5に示されたように、仕上がりが予想された印刷物が、表裏で天地が同じ両面コピーの仕上がり予想図として3次元的に表示される。   FIG. 5 is a schematic diagram illustrating an example of a display of a predicted finished screen set to be duplex copying. As shown in FIG. 5, the printed matter that is predicted to be finished is displayed three-dimensionally as a predicted finish for double-sided copy with the same top and bottom.

図6は、実施の形態1による画像形成手順を示すフローチャートである。画像情報生成部134は、画像データの入力を検知する状態にあり(ステップS101)、検知した場合(ステップS101のYes)、仕上がり予想画像情報を生成する(ステップS102)。操作表示部15は、仕上がり予想画像情報に基づいて仕上がり予想画像を表示する(ステップS103)。   FIG. 6 is a flowchart showing an image forming procedure according to the first embodiment. The image information generation unit 134 is in a state of detecting input of image data (step S101). If detected (Yes in step S101), the image information generation unit 134 generates predicted finished image information (step S102). The operation display unit 15 displays a predicted finished image based on the predicted finished image information (step S103).

ここで、タッチパネル15bは、接触による入力を検知する状態にあって(ステップS104)、検知した場合(ステップS104のYes)、空間項目識別部131は、接触による入力から空間情報を取得し、空間指示項目を識別する(ステップS105)。   Here, the touch panel 15b is in a state of detecting an input by contact (step S104), and when detected (Yes in step S104), the space item identification unit 131 acquires space information from the input by contact, An instruction item is identified (step S105).

マイク15aは、音声を検知する状態にあって(ステップS106)、検知した場合(ステップS106のYes)、言語項目識別部132は、音声情報を取得して言語指示項目を識別する(ステップS107)。   The microphone 15a is in a state of detecting voice (step S106), and when detected (Yes in step S106), the language item identifying unit 132 acquires voice information and identifies a language instruction item (step S107). .

処理項目設定部133は、空間指示項目および言語指示項目の組合せから、画像形成の処理項目を設定する(ステップS108)。ここで、印刷実行しない場合(ステップS109のNo)、さらにステップS108において設定された設定項目によって画像情報生成部134は、再び仕上がり予想画像情報を生成し(ステップS102)、表示パネル15cが仕上がり予想画面を表示して(ステップS103)、必要な場合は、ポインターによる接触入力を受け付けるなどのルーティンを繰り返す。また、印刷実行などの画像形成処理命令が受け付けられた場合(ステップS109のYes)、画像形成処理が施される(ステップS110)。   The process item setting unit 133 sets an image formation process item from the combination of the space instruction item and the language instruction item (step S108). Here, when printing is not executed (No in step S109), the image information generating unit 134 again generates predicted finished image information based on the setting items set in step S108 (step S102), and the display panel 15c is predicted to be finished. A screen is displayed (step S103), and if necessary, routines such as accepting contact input by a pointer are repeated. Further, when an image forming process command such as printing is accepted (Yes in step S109), an image forming process is performed (step S110).

このようにして、実施の形態1による画像形成装置は、予想仕上がり画面を表示パネル15cに表示し、ポインターによる入力によって空間指示項目を選択し、音声入力によって言語指示項目を選択し、処理項目設定部が空間指示項目と言語指示項目とを組み合わせて処理項目を設定するので、操作者にとっては利便性が高く装置にとっては確実性が高いものとなる。   In this manner, the image forming apparatus according to the first embodiment displays the expected finished screen on the display panel 15c, selects the space instruction item by the input with the pointer, selects the language instruction item by the voice input, and sets the processing item. Since the processing unit is set by combining the space instruction item and the language instruction item, the unit is convenient for the operator and highly reliable for the apparatus.

(実施の形態2)
図7は、実施の形態2による画像形成装置の要部である画像処理部の機能的ブロック図である。実施の形態2による画像形成装置は、画像処理部23の処理項目設定部233が設定処理を施す機能が、実施の形態1の場合と異なる。以下、異なった部分について主に説明する。
(Embodiment 2)
FIG. 7 is a functional block diagram of an image processing unit which is a main part of the image forming apparatus according to the second embodiment. The image forming apparatus according to the second embodiment is different from the first embodiment in the function that the processing item setting unit 233 of the image processing unit 23 performs the setting process. Hereinafter, different parts will be mainly described.

実施の形態2による処理項目設定部233は、空間項目識別部131または言語項目識別部132のいずれか一方の指示項目を識別した場合、識別した指示項目の中から候補を選択し、続いて他の空間項目識別部131または言語項目識別部132に出力し、該他の識別部は入力を受け付けた候補に基づいて指示項目の候補を選択することによって指示項目の候補を制限し、処理項目設定部233は該選択された一方の指示項目および制限された該他の指示項目の組合せによって、画像形成の処理項目を設定する。この構成によって、画像形成の処理項目を絞り込むことができる。   When the process item setting unit 233 according to the second embodiment identifies one of the instruction items of the space item identification unit 131 or the language item identification unit 132, the process item setting unit 233 selects a candidate from the identified instruction items, To the space item identifying unit 131 or the language item identifying unit 132, and the other identifying unit restricts the instruction item candidates by selecting the instruction item candidates based on the candidates for which the input is accepted, and sets the processing item The unit 233 sets an image forming process item according to a combination of the selected one instruction item and the other restricted instruction item. With this configuration, processing items for image formation can be narrowed down.

まず、空間項目識別部131による指示項目が、最初に選択される場合を説明する。処理項目設定部233は、空間項目識別部131が識別した空間指示項目情報に従って、設定項目記憶部135に記憶されている設定項目のうち、空間指示項目を抽出し、抽出された空間指示項目を処理項目候補として言語項目識別部132へ出力する。言語項目識別部132は、入力した空間指示項目情報に基づいて、対応する言語指示項目を選択する。   First, a case where the instruction item by the space item identification unit 131 is first selected will be described. The process item setting unit 233 extracts the space instruction item from the setting items stored in the setting item storage unit 135 according to the space instruction item information identified by the space item identification unit 131, and extracts the extracted space instruction item. It outputs to the language item identification part 132 as a process item candidate. The language item identification unit 132 selects a corresponding language instruction item based on the input space instruction item information.

ここで、言語項目識別部132は、処理項目設定部133から受け取った空間指示項目の候補に対応する言語指示項目を、ユーザ発話から言語解析した言語指示項目から識別してその候補を選択する。言語項目識別部132は、処理項目設定部233に対して、選択された言語指示項目を送信する。処理項目設定部233は、受信した言語指示項目情報と、すでに得ている空間指示項目情報を合わせることによって、ユーザから受け付けた設定入力による処理項目を特定し、特定された処理項目を画像形成装置へ設定する。   Here, the language item identification unit 132 identifies the language instruction item corresponding to the spatial instruction item candidate received from the processing item setting unit 133 from the language instruction item that has been subjected to language analysis from the user utterance, and selects the candidate. The language item identification unit 132 transmits the selected language instruction item to the processing item setting unit 233. The process item setting unit 233 identifies the process item by the setting input received from the user by combining the received language instruction item information and the already obtained space instruction item information, and the identified process item is the image forming apparatus. Set to.

図8は、実施の形態2による画像形成手順を示すフローチャートである。ここで、ステップS105までは実施の形態1の場合と同様である。表示パネル15cが予想仕上がり画面を表示して(実施の形態1におけるステップS103)、タッチパネル15bが接触による空間情報の入力を検知すると(ステップS104のYes)、空間項目識別部131は空間情報を取得して空間指示項目を識別する(ステップS105)。処理項目設定部233は言語指示項目の候補を選択して言語項目識別部132に出力する(ステップS201)。   FIG. 8 is a flowchart showing an image forming procedure according to the second embodiment. Here, steps up to step S105 are the same as those in the first embodiment. When the display panel 15c displays an expected finished screen (step S103 in the first embodiment) and the touch panel 15b detects the input of spatial information due to contact (Yes in step S104), the space item identification unit 131 acquires the spatial information. Thus, the space instruction item is identified (step S105). The process item setting unit 233 selects a language instruction item candidate and outputs it to the language item identification unit 132 (step S201).

マイク15aは、音声を検知する状態にあり(ステップS202)、検知した場合(ステップS202のYes)、言語項目識別部132は、マイク15aによって検知された音声情報を取得し、既に入力した空間指示項目の候補に対応付けられる言語指示項目の候補を識別し、選択して処理項目設定部233に出力する(ステップS203)。処理項目設定部233は、既に入力している空間指示項目と、言語項目識別部132から入力する言語指示項目に従って、画像形成の処理項目を設定する(ステップS204)。   The microphone 15a is in a state of detecting voice (step S202), and when detected (Yes in step S202), the language item identifying unit 132 acquires the voice information detected by the microphone 15a and has already input the space instruction. The language instruction item candidate associated with the item candidate is identified, selected, and output to the processing item setting unit 233 (step S203). The process item setting unit 233 sets an image formation process item in accordance with the space instruction item already input and the language instruction item input from the language item identification unit 132 (step S204).

このように、実施の形態2による処理項目設定部233は、空間項目識別部131が空間指示項目を識別してその中から候補を選択し、選択した空間指示項目の候補を言語項目識別部132に出力し、続いて言語項目識別部132は選択された空間処理項目に対応する言語指示項目の候補を選択する。そして、処理項目設定部133は、選択された空間指示項目および言語指示項目の組合せによって画像形成の処理項目を設定する。このようにして、互いに対応付けられる空間指示項目および言語指示項目を、順序に従って候補を選択することによって、効率的かつ確実に設定項目を選択することができる。   As described above, in the processing item setting unit 233 according to the second embodiment, the space item identification unit 131 identifies the space instruction item, selects a candidate from the space instruction item, and selects the selected space instruction item candidate as the language item identification unit 132. Then, the language item identification unit 132 selects a language instruction item candidate corresponding to the selected spatial processing item. Then, the process item setting unit 133 sets a process item for image formation according to the combination of the selected space instruction item and language instruction item. Thus, setting items can be selected efficiently and reliably by selecting candidates according to the order of the space instruction item and the language instruction item associated with each other.

(実施の形態2の変形例)
図9は、実施の形態2による他の画像形成装置の要部である画像処理部の機能的ブロック図である。ここで画像処理部33の処理項目設定部333が、実施の形態2による画像処理部23と異なる点は、最初に言語項目識別部132が識別した言語指示項目を、処理項目設定部333が選択して空間項目識別部131に出力し、空間項目識別部131は入力した言語指示項目に対応する空間指示項目の候補を選択し、処理項目設定部333は、選択された言語指示項目および空間指示項目によって、画像形成の処理項目を設定する。この構成によって、画像形成の処理項目を絞り込むことができる。
(Modification of Embodiment 2)
FIG. 9 is a functional block diagram of an image processing unit which is a main part of another image forming apparatus according to the second embodiment. Here, the processing item setting unit 333 of the image processing unit 33 is different from the image processing unit 23 according to the second embodiment in that the processing item setting unit 333 selects the language instruction item first identified by the language item identifying unit 132. The space item identification unit 131 selects a space instruction item candidate corresponding to the input language instruction item, and the processing item setting unit 333 selects the selected language instruction item and space instruction. Depending on the item, processing items for image formation are set. With this configuration, processing items for image formation can be narrowed down.

処理項目設定部333は、最初、設定項目記憶部235に記憶されている設定項目のうち、言語項目識別部132によって識別された言語指示項目を抽出し、抽出された言語指示項目を空間項目識別部131へ出力する。空間項目識別部131は、入力した言語指示項目に対応して空間指示項目の候補を選択し、処理項目設定部333に出力する。処理項目設定部333は、受信した空間指示項目および言語指示項目とを対応付けて、ユーザの指示した設定項目を特定し、画像形成装置へ設定する。   The process item setting unit 333 first extracts the language instruction item identified by the language item identification unit 132 from the setting items stored in the setting item storage unit 235, and identifies the extracted language instruction item as a space item. Output to the unit 131. The space item identification unit 131 selects a space instruction item candidate corresponding to the input language instruction item, and outputs it to the processing item setting unit 333. The processing item setting unit 333 associates the received space instruction item with the language instruction item, identifies the setting item instructed by the user, and sets it in the image forming apparatus.

図10は、実施の形態2による他の画像形成手順を示すフローチャートである。ここでは、実施の形態1による画像形成手順におけるS103、即ち、入力した画像データを基に、表示パネル15cには仕上がり予想画面が表示された状態からスタートする。マイク15aは音声を検知する状態にあり(ステップS301)、操作者の発話を検知した場合(ステップS301のYes)、言語項目識別部132は言語指示項目を識別する(ステップS302)。そして、処理項目設定部333は、空間指示項目の候補を選択して、空間項目識別部131に出力する(ステップS303)。   FIG. 10 is a flowchart showing another image forming procedure according to the second embodiment. Here, S103 in the image forming procedure according to the first embodiment, that is, based on the input image data, starts from a state in which a predicted finish screen is displayed on the display panel 15c. The microphone 15a is in a state of detecting voice (step S301), and when the utterance of the operator is detected (Yes in step S301), the language item identifying unit 132 identifies the language instruction item (step S302). Then, the process item setting unit 333 selects a space instruction item candidate and outputs it to the space item identification unit 131 (step S303).

タッチパネル15bは、ポインターの接触を検知する状態にあり(ステップS304)、検知した場合(ステップS304のYes)、空間項目識別部131は空間情報を取得して入力した言語情報項目に対応する空間指示項目を識別し、処理項目設定部333に出力する(ステップS305)。処理項目設定部333は、既に入力した言語指示項目と、ここで入力した空間指示項目とを対応付けて、画像形成の処理項目を設定する(ステップS306)。   The touch panel 15b is in a state of detecting the touch of the pointer (step S304), and when detected (Yes in step S304), the space item identification unit 131 acquires the space information and corresponds to the language information item input. The item is identified and output to the process item setting unit 333 (step S305). The process item setting unit 333 associates the language instruction item already input with the space instruction item input here, and sets an image formation process item (step S306).

ここで実施の形態2による他の処理項目設定部333は、最初に言語項目識別部132が言語指示項目を識別して候補を選択し、続いて空間項目識別部131が選択された言語指示項目の候補に対応する空間指示項目を識別し、処理項目設定部333が、言語指示項目と空間指示項目との候補を対応付けて画像処理の処理項目を設定する。これによって、順序に従って言語および空間指示項目の候補を選択して対応づけることによって、効率的かつ確実に設定項目を選択し、効率的に設定作業を行うことができる。   Here, in the other processing item setting unit 333 according to the second embodiment, the language item identification unit 132 first identifies the language instruction item, selects a candidate, and then the space item identification unit 131 selects the language instruction item. The space instruction item corresponding to the candidate is identified, and the processing item setting unit 333 associates the language instruction item and the space instruction item with each other and sets a processing item for image processing. Thus, by selecting and associating the language and space instruction item candidates according to the order, the setting items can be selected efficiently and reliably, and the setting operation can be performed efficiently.

(実施の形態3)
図11は、実施の形態3による画像形成装置の要部である画像処理部の機能的ブロック図である。実施の形態3による画像処理部43が、実施の形態1と異なる点は、画像処理部43の設定項目記憶部335が確実度データベース(DB)335aを備え、空間項目識別部431および言語項目識別部432が確実度情報を付加した指示項目を識別し、処理項目設定部433が確実度情報を付加された指示項目から選択して画像形成の処理設定を行う点である。以下、異なる点について主に説明する。
(Embodiment 3)
FIG. 11 is a functional block diagram of an image processing unit which is a main part of the image forming apparatus according to the third embodiment. The image processing unit 43 according to the third embodiment is different from the first embodiment in that the setting item storage unit 335 of the image processing unit 43 includes a certainty degree database (DB) 335a, and a space item identification unit 431 and a language item identification. The unit 432 identifies the instruction item to which the certainty degree information is added, and the process item setting unit 433 selects the instruction item to which the certainty degree information is added and sets the processing for image formation. Hereinafter, different points will be mainly described.

空間項目識別部431は、設定項目記憶部335に記憶された指示項目情報に対して、確実度データベース335aから取得するそれぞれの空間確実度情報を付加して識別し、処理項目設定部433に出力する。   The space item identification unit 431 identifies each indication item information stored in the setting item storage unit 335 by adding each space certainty factor information acquired from the certainty factor database 335 a, and outputs it to the processing item setting unit 433. To do.

言語項目識別部432は、設定項目記憶部335に記憶された指示項目情報に対して、確実度データベース(DB)335aから取得するそれぞれの言語確実度情報を付加して識別し、処理項目設定部433に出力する。   The language item identifying unit 432 identifies the instruction item information stored in the setting item storage unit 335 by adding each language certainty information acquired from the certainty degree database (DB) 335a, and identifies the processing item setting unit. Output to 433.

処理項目設定部433は、入力した空間確実度情報が付加された空間指示項目情報および言語確実度情報が付加された言語指示項目情報を対応させて、画像処理の項目を設定する。   The process item setting unit 433 sets an image processing item by associating the input space instruction item information to which the spatial certainty information is added and the language instruction item information to which the language certainty information is added.

ここで、空間指示項目に対する確実度は、例えば読み取った空間情報と予め設定項目記憶部335に記憶されている空間指示項目に関連する空間情報との誤差に反比例して定めることができる。   Here, the certainty for the space instruction item can be determined in inverse proportion to an error between the read space information and the space information related to the space instruction item stored in the setting item storage unit 335 in advance.

また、言語指示項目に対する確実度は、例えば入力した音声情報と予め設定項目記憶部335に記憶されている言語指示項目に関連する音声情報との誤差に反比例して定めることができる。   In addition, the certainty for the language instruction item can be determined in inverse proportion to, for example, an error between the input voice information and the voice information related to the language instruction item stored in the setting item storage unit 335 in advance.

確実度データベース335aは、例えば、空間情報との誤差と確実度、および音声情報との誤差と確実度のテーブルとして構成できる。空間項目識別部431および言語項目識別部432は、それぞれの指示項目に対してテーブルを用いて確実度情報を取得して付加する。   The certainty database 335a can be configured, for example, as a table of errors and certainty with spatial information and errors and certainty with audio information. The space item identifying unit 431 and the language item identifying unit 432 acquire and add certainty information to each instruction item using a table.

処理項目設定部433は、付加された確実度に従って、空間指示項目および言語指示項目を選択して画像形成の処理を設定する。   The process item setting unit 433 selects the space instruction item and the language instruction item according to the added certainty, and sets the image forming process.

図12は、実施の形態3による画像形成手順を説明するフローチャートである。ここで、実施の形態1におけるステップS104までは同じであるので、省略し、異なる手順について主に説明する。タッチパネル15bがユーザの指などによって接触入力を検知した場合(ステップS104のYes)、空間項目識別部432は、空間情報から空間指示項目を識別して関連する空間確実度情報を取得する(ステップS401)。   FIG. 12 is a flowchart for explaining an image forming procedure according to the third embodiment. Here, since it is the same up to step S104 in Embodiment 1, it abbreviate | omits and it mainly demonstrates a different procedure. When the touch panel 15b detects a contact input with a user's finger or the like (Yes in step S104), the space item identification unit 432 identifies the space instruction item from the space information and acquires related space certainty information (step S401). ).

マイク15aは、音声を検知する状態にあり(ステップS402)、検知した場合(ステップS402のYes)、言語項目識別部432は、音声情報から言語指示項目を識別して関連する言語確実度情報を取得する(ステップS403)。処理項目設定部433は、空間確実度および言語確実度を用いて空間指示項目および言語指示項目を対応付けて、画像形成の処理項目を設定する(ステップS404)。   The microphone 15a is in a state of detecting voice (step S402). When the microphone 15a is detected (Yes in step S402), the language item identifying unit 432 identifies the language instruction item from the voice information and displays related language certainty information. Obtain (step S403). The process item setting unit 433 sets the image formation process item by associating the space instruction item and the language instruction item using the space certainty and the language certainty (step S404).

このように、実施の形態3による画像形成装置においては、空間項目識別部431が空間確実度情報を付加した空間指示項目を識別し、言語項目識別部432が言語確実度情報を付加した言語指示項目を識別し、処理項目設定部433はそれら確実度を用いて空間指示項目および言語指示項目を対応させて画像処理の項目を設定するので、効率的かつ確実度の高い設定項目を選択し、効率的に設定作業を行うことができる。   As described above, in the image forming apparatus according to the third embodiment, the space item identifying unit 431 identifies the space instruction item to which the space certainty information is added, and the language item identifying unit 432 is the language instruction to which the language certainty information is added. The items are identified, and the processing item setting unit 433 uses these certainty levels to set the image processing items in association with the space designation items and the language designation items. Therefore, the setting items are selected efficiently and reliably. Setting work can be performed efficiently.

(実施の形態4)
図13は、実施の形態4による画像形成装置の要部である画像処理部の機能的ブロック図である。実施の形態3による画像処理部53が、実施の形態1と異なる点は、画像処理部53の設定項目記憶部335が関連度データベース(DB)335bを備え、処理項目設定部533が、空間項目識別部531が識別する空間指示項目および言語項目識別部532が識別する言語指示項目の相互の関連性を示す関連度を取得し、取得した関連度に従って、画像形成の処理項目を設定することである。
(Embodiment 4)
FIG. 13 is a functional block diagram of an image processing unit which is a main part of the image forming apparatus according to the fourth embodiment. The image processing unit 53 according to the third embodiment is different from the first embodiment in that the setting item storage unit 335 of the image processing unit 53 includes a relevance database (DB) 335b, and the processing item setting unit 533 includes a space item. By acquiring the relevance level indicating the relevance between the space indication item identified by the identification unit 531 and the language designation item identified by the language item identification unit 532, and setting the processing items for image formation according to the acquired relevance level is there.

ここで、関連度DB335bは、すべての空間指示項目と言語指示項目との組み合わせに対する関連度を記憶している。例えば、実施の形態1における図2で、ユーザの接触軌跡2cが検出された場合、日付印字処理である可能性が高くなるので、斜線2本の接触軌跡の空間指示項目および日付印字の言語指示項目との関連度は、0.9である、というように定めることができる。また、斜線2本とパンチ穴処理の関連度は低く、例えば0.1であると定めることができる。定めた関連度は、テーブルとして記憶する。   Here, the relevance level DB 335b stores relevance levels for combinations of all space instruction items and language instruction items. For example, in FIG. 2 according to the first embodiment, when the user's contact locus 2c is detected, the possibility of date printing processing is increased. Therefore, the space instruction item of the two oblique lines and the language instruction for date printing are provided. The degree of association with an item can be determined to be 0.9. Further, the degree of association between the two diagonal lines and the punch hole processing is low, and can be determined to be 0.1, for example. The determined degree of association is stored as a table.

処理項目設定部533は、空間指示項目および言語指示項目に対応するそれぞれの関連度を取得し、最も関連度の高い組合せを選択して画像形成の処理設定とする。   The process item setting unit 533 acquires the respective relevance levels corresponding to the space instruction item and the language instruction item, and selects the combination with the highest relevance level as the image formation process setting.

図14は、実施の形態4による画像形成手順を説明するフローチャートである。ここで、実施の形態1におけるステップS107まで同じ手順であるので説明を省略し、異なる手順についてのみ説明する。言語項目識別部532が音声情報を取得し、言語解析を行って言語指示項目を識別すると(ステップS107)、処理項目設定部533は、空間項目識別部531が識別した空間指示項目および言語項目識別部532が識別した言語指示項目の関連度を取得し(ステップS501)、取得した関連度に従って、空間指示項目および言語指示項目を対応させ、画像処理の項目を設定する(ステップS502)。
このように、実施の形態4による画像形成装置においては、空間項目識別部53が空間指示項目を識別し、言語項目識別部532が言語指示項目を識別し、処理項目設定部533は空間指示項目および言語指示項目のそれぞれ関連度を取得し、取得した関連度に従って画像形成の処理項目を設定するので、効率的かつ関連度の高い設定項目を選択し、効率的に設定作業を行うことができる。
FIG. 14 is a flowchart illustrating an image forming procedure according to the fourth embodiment. Here, since the procedure is the same up to step S107 in the first embodiment, a description thereof will be omitted, and only a different procedure will be described. When the language item identification unit 532 acquires voice information and performs language analysis to identify the language instruction item (step S107), the processing item setting unit 533 identifies the space instruction item and the language item identification identified by the space item identification unit 531. The degree of association of the language instruction item identified by the unit 532 is acquired (step S501), and the space instruction item and the language instruction item are associated with each other according to the acquired degree of association, and an image processing item is set (step S502).
As described above, in the image forming apparatus according to the fourth embodiment, the space item identifying unit 53 identifies the space instruction item, the language item identifying unit 532 identifies the language instruction item, and the processing item setting unit 533 includes the space instruction item. In addition, the relevance level of each of the language instruction items is acquired, and the processing items for image formation are set according to the acquired relevance level. Therefore, it is possible to select setting items with high relevance and perform setting work efficiently. .

(実施の形態4の変形例)
図15は、実施の形態4による他の画像形成装置の画像処理部の機能的ブロック図である。ここで、処理項目設定部633は、取得した確実度情報を付加された空間指示項目、確実度を付加された言語指示項目、および空間指示項目および言語指示項目の関連度に基づいて、画像形成の処理項目を設定する。それぞれの空間指示項目および言語指示項目についての重要度および関連度に対して、例えば、重み付け加算を行って、加算された値が最大の組合せ候補を、設定項目として選択し、画像形成の処理項目に設定する。
(Modification of Embodiment 4)
FIG. 15 is a functional block diagram of an image processing unit of another image forming apparatus according to the fourth embodiment. Here, the processing item setting unit 633 forms the image based on the space instruction item to which the acquired certainty information is added, the language instruction item to which the certainty is added, and the degree of association between the space instruction item and the language instruction item. Set the processing item. For example, weighting addition is performed on the importance and relevance of each space instruction item and language instruction item, and a combination candidate having the largest added value is selected as a setting item, and an image formation processing item Set to.

複数候補が挙げられた空間指示項目および言語指示項目において、i番目の空間指示項目の候補に対する確実度をSi、j番目の言語指示項目の候補に対する確実度をLj、i番目の空間指示項目の候補とj番目の言語指示項目の候補の関連度をRij、空間指示項目に対する重み係数をSc、言語指示項目に対する重み係数をLc、そして関連度に対する重み係数をRcとする。   In the space instruction item and language instruction item in which a plurality of candidates are listed, the certainty for the i-th space instruction item candidate is Si, the certainty for the j-th language instruction item candidate is Lj, and the i-th space instruction item is Assume that the degree of association between the candidate and the candidate for the jth language instruction item is Rij, the weight coefficient for the space instruction item is Sc, the weight coefficient for the language instruction item is Lc, and the weight coefficient for the degree of association is Rc.

処理項目設定部633は、
Pij=ScSi+LcLj+RcRij
を算出し、Pij値を最大とするiとjの組を選択し、該当するi、jに対応する空間指示項目および言語指示項目を対応付けることによって、画像形成の処理項目を設定する。
The processing item setting unit 633
Pij = ScSi + LcLj + RcRij
Is selected, a pair of i and j that maximizes the Pij value is selected, and the processing items for image formation are set by associating the space instruction item and the language instruction item corresponding to the corresponding i and j.

図16は、実施の形態4による他の画像形成手順を説明するフローチャートである。スタートが実施の形態におけるステップS104のYesであるのは、実施の形態3の場合と同様である。空間項目識別部431は空間情報を取得して対応する確実度情報を取得する(ステップS601)。マイク15aは音声を検出状態にあり(ステップS602)、音声を検知した場合(ステップS602のYes)、言語項目識別部432は音声情報を取得して言語指示項目を識別しその確実度情報を取得する(ステップS603)。   FIG. 16 is a flowchart for explaining another image forming procedure according to the fourth embodiment. The start is Yes in step S104 in the embodiment, as in the case of the third embodiment. The space item identification unit 431 acquires space information and acquires corresponding certainty information (step S601). When the microphone 15a is in a voice detection state (step S602) and detects a voice (Yes in step S602), the language item identification unit 432 acquires voice information to identify a language instruction item and acquire its certainty information. (Step S603).

処理項目設定部633は、空間指示項目および言語指示項目の関連度情報を取得する(ステップS604)。処理項目設定部633は、空間確実度、言語確実度、および関連度情報のそれぞれに対してそれぞれの重みを付けて加算し、加算値が最大の指示項目を対応付けて、画像形成の処理項目を設定する(ステップS605)。   The process item setting unit 633 acquires relevance information of the space instruction item and the language instruction item (step S604). The process item setting unit 633 adds each weight to each of the space certainty, language certainty, and relevance information, associates the instruction item with the maximum addition value, and associates the instruction item with the maximum added value. Is set (step S605).

このように、実施の形態4の変形例による画像形成装置においては、処理項目設定部533は空間指示項目の確実度、言語指示項目の確実度、および両指示項目の関連度をそれぞれ重み付けして加算し、最大の加算値を与える空間指示項目および言語指示項目を対応させて画像形成の処理項目を設定するので、関連性および確実性の高い設定項目を選択し、効率的に確実に設定作業を行うことができる。   As described above, in the image forming apparatus according to the modification of the fourth embodiment, the processing item setting unit 533 weights the certainty of the space instruction item, the certainty of the language instruction item, and the relevance of both instruction items. The processing items for image formation are set by associating the space instruction item and the language instruction item that give the maximum added value, so the setting items with high relevance and certainty are selected, and the setting work is performed efficiently and reliably. It can be performed.

(実施の形態5)
図17は、本発明の実施の形態5による画像形成装置の機能的ブロック図である。実施の形態5による画像形成装置40が、実施の形態1による画像形成装置10と異なる点は、画像解析部81、関連機能検索部82、および関連機能対応表821を備えた点であり、また、画像処理部730の機能が実施の形態1における画像処理部13と異なる点である。図17に示すように画像処理部730は、空間項目識別部731、言語項目識別部732、処理項目設定部733、および画面情報生成部734を備える。
(Embodiment 5)
FIG. 17 is a functional block diagram of an image forming apparatus according to Embodiment 5 of the present invention. The image forming apparatus 40 according to the fifth embodiment is different from the image forming apparatus 10 according to the first embodiment in that an image analyzing unit 81, a related function searching unit 82, and a related function correspondence table 821 are provided. The function of the image processing unit 730 is different from the image processing unit 13 in the first embodiment. As illustrated in FIG. 17, the image processing unit 730 includes a space item identification unit 731, a language item identification unit 732, a process item setting unit 733, and a screen information generation unit 734.

実施の形態5による画像形成装置においては、画像解析部81、関連機能検索部82、および関連機能対応表821が原稿特性値を抽出し、画面情報生成部734が抽出された原稿特性値に基づいて、入力画像データから仕上がり予想画面情報を生成し、表示部パネル15cが仕上がり予想および入力画面を表示する。   In the image forming apparatus according to the fifth embodiment, the image analysis unit 81, the related function search unit 82, and the related function correspondence table 821 extract document characteristic values, and the screen information generation unit 734 based on the extracted document characteristic values. Thus, the predicted finish screen information is generated from the input image data, and the display panel 15c displays the predicted finish and the input screen.

画像解析部81は、画像記憶部12が保持している原稿画像データを解析して、原稿の特性を表す原稿特性値を抽出する。原稿特性値は、例えば、原稿のサイズ、向き、余白寸法である。   The image analysis unit 81 analyzes the document image data held by the image storage unit 12 and extracts a document characteristic value representing the characteristics of the document. The document characteristic value is, for example, a document size, orientation, and margin size.

関連機能検索部82は、画像解析部81で算出された各種の原稿特性値についての情報を受信した場合、当該原稿を複写する際に設定が必要な関連機能を検索する。関連機能検索部82は、関連機能対応表821を有する。関連機能対応表821は、個々の原稿特性値に関連した機能の一覧情報を記述するファイルである。関連機能検索部82は、入力された原稿特性値に対応した関連機能を関連機能対応表821から検索し、より絞り込まれた関連機能情報を画像処理部730に送信する。画像処理部730が受信した関連機能情報は、画面情報生成部734によって、予想仕上がり画面情報の生成に使用される。   When the related function search unit 82 receives information on various document characteristic values calculated by the image analysis unit 81, the related function search unit 82 searches for a related function that needs to be set when copying the document. The related function search unit 82 has a related function correspondence table 821. The related function correspondence table 821 is a file describing function list information related to individual document characteristic values. The related function search unit 82 searches the related function correspondence table 821 for a related function corresponding to the input document characteristic value, and transmits the further narrowed down related function information to the image processing unit 730. The related function information received by the image processing unit 730 is used by the screen information generation unit 734 to generate predicted finished screen information.

実施の形態5による画像処理部730の画面情報生成部734は、画像解析部81の画像解析に基づく原稿特性値、および、該原稿特性値を用いて関連機能検索部82が抽出して絞り込んだ関連機能情報を使用して、入力画像データから仕上がり情報および入力画面情報を生成する。ここで、入力画面情報によって表示パネル15cに表示された入力画面から設定入力を受け付けるのは実施の形態1と同様である。   The screen information generation unit 734 of the image processing unit 730 according to the fifth embodiment extracts and narrows down the original characteristic value based on the image analysis of the image analysis unit 81 and the related function search unit 82 using the original characteristic value. Using the related function information, finish information and input screen information are generated from the input image data. Here, the setting input is accepted from the input screen displayed on the display panel 15c by the input screen information, as in the first embodiment.

ここで、画像解析部81,関連機能検索部82,および関連機能対応表821は本発明の画像解析手段を構成する。   Here, the image analysis unit 81, the related function search unit 82, and the related function correspondence table 821 constitute the image analysis means of the present invention.

ここで、画像解析部81が解析した原稿特性値、および原稿画像データに従って、例えば、処理項目設定部733は、
1.原稿サイズはA3
2.原稿方向は横
3.余白寸法は、上:20mm 下:15mm 左:20mm 右:20mm
という設定を行う。
Here, according to the document characteristic value analyzed by the image analysis unit 81 and the document image data, for example, the processing item setting unit 733
1. The document size is A3
2. 2. Document orientation is horizontal. The margin dimensions are: Top: 20mm Bottom: 15mm Left: 20mm Right: 20mm
Set as follows.

ユーザは仕上がり予想を画面上で視認しながら、タッチパネル15bおよびマイク15aを介して設定入力を行う。設定入力を行った後の各部の処理は実施の形態1の場合と同様であるので説明を省略する。   The user performs setting input through the touch panel 15b and the microphone 15a while visually confirming the finish prediction on the screen. Since the processing of each unit after the setting input is performed is the same as that in the first embodiment, the description thereof is omitted.

図18は、実施の形態5による画像形成手順を示すフローチャートである。画像情報生成部が画像データを検知した場合(実施の形態1におけるステップS101のYes)、画像解析部81が入力した画像データの原稿特性値を解析し(ステップS701)、関連機能検索部82は解析された原稿特性値に基づいて関連機能を検索して検索結果を画像処理部730に送信する(ステップS702)。画像情報生成部734は、受信した検索結果を加味して仕上がり予想画像情報を生成し(ステップS703)、表示パネル15cは仕上がり予想画像を表示する(ステップS704)。以下のステップは実施の形態1におけるステップS104以下と同じであるので、説明を省略する。   FIG. 18 is a flowchart showing an image forming procedure according to the fifth embodiment. When the image information generation unit detects the image data (Yes in step S101 in the first embodiment), the original characteristic value of the image data input by the image analysis unit 81 is analyzed (step S701), and the related function search unit 82 A related function is searched based on the analyzed document characteristic value, and the search result is transmitted to the image processing unit 730 (step S702). The image information generation unit 734 generates predicted finished image information in consideration of the received search results (step S703), and the display panel 15c displays the predicted finished image (step S704). The following steps are the same as those after step S104 in the first embodiment, and a description thereof will be omitted.

このようにして、画像解析部81が解析した原稿画像の特性値をも含めて、予想される仕上がり、およびユーザからの設定入力を受け付ける入力画面を表示して、該入力画面の表示からユーザによる設定入力を受け付けるので、原稿特性を表す原稿特性値を用いて、仕上がり予想およびさらに設定入力すべき項目を的確に絞り込むので的確で確実度の高い設定項目を選択でき、効率的で確実な設定作業を行うことができる。   In this way, an input screen for accepting an expected finish and setting input from the user including the characteristic value of the document image analyzed by the image analysis unit 81 is displayed. Since setting input is accepted, it is possible to select an accurate and highly reliable setting item by accurately narrowing down the items to be finished and setting input by using the original characteristic value representing the original characteristic. It can be performed.

(実施の形態6)
実施の形態6による画像処理装置は、実施の形態1による画像形成装置における画像処理機能を実行する部分を画像処理装置として構成したものである。
(Embodiment 6)
In the image processing apparatus according to the sixth embodiment, a portion that executes an image processing function in the image forming apparatus according to the first embodiment is configured as an image processing apparatus.

図19は、実施の形態6による画像処理装置の機能的ブロック図である。実施の形態6による画像処理装置50は、画像形成装置60における画像処理機能を実行する。画像処理装置50が備える各処理部の構成と作用は、実施の形態1における各処理部と同じであるので、説明を省略する。   FIG. 19 is a functional block diagram of the image processing apparatus according to the sixth embodiment. The image processing apparatus 50 according to the sixth embodiment executes an image processing function in the image forming apparatus 60. Since the configuration and operation of each processing unit provided in the image processing apparatus 50 are the same as those in each processing unit in the first embodiment, description thereof is omitted.

実施の形態6による画像処理装置においては、読み取った画像データまたはネットワークを介して入力した画像データに対して、印刷前に仕上がり予想画面および操作者が設定入力可能な入力画面を表示する。そして、予想仕上がり画面を表示パネル15cに表示して、ポインターによる入力によって空間指示項目を選択し、音声入力によって言語指示項目を選択し、空間指示項目と言語指示項目とを組み合わせて画像処理項目を設定するので、操作者にとっては利便性が高く装置にとっては確実性が高いものとなる。   In the image processing apparatus according to the sixth embodiment, a predicted finish screen and an input screen on which an operator can input settings are displayed before printing for the read image data or image data input via a network. Then, an expected finish screen is displayed on the display panel 15c, a space instruction item is selected by input with a pointer, a language instruction item is selected by voice input, and an image processing item is selected by combining the space instruction item and the language instruction item. Since it is set, it is convenient for the operator and highly reliable for the apparatus.

(実施の形態7)
図20は、実施の形態7による画像処理システムの機能的ブロック図である。実施の形態7による画像処理システムは、実施の形態1による画像形成装置の画像処理機能部分と、他の機能を実行する部分とを、ネットワークを介して接続して構成したシステムである。ここで、画像処理部73は、1つの部分として記載されているが、各部がそれぞれ分かれてネットワークを介して接続される構成であっても良い。
(Embodiment 7)
FIG. 20 is a functional block diagram of an image processing system according to the seventh embodiment. The image processing system according to the seventh embodiment is a system in which the image processing function part of the image forming apparatus according to the first embodiment and a part that executes other functions are connected via a network. Here, the image processing unit 73 is described as one part, but may be configured such that each part is divided and connected via a network.

実施の形態7による画像処理システム70、原稿読取装置71、および印刷装置76はネットワーク18を介して接続されて画像系システムを形成している。画像処理システム70は、画像処理装置73、操作表示装置75を備える。画像処理装置73の各部はそれぞれがネットワーク18を介して接続される構成とすることもできる。実施の形態7による画像処理システム70における各装置、あるいは各部は、ネットワークで接続されること以外は画像処理装置10のそれぞれ対応する各部と同様に構成できる。   The image processing system 70, the document reading device 71, and the printing device 76 according to the seventh embodiment are connected via the network 18 to form an image system. The image processing system 70 includes an image processing device 73 and an operation display device 75. Each unit of the image processing apparatus 73 may be connected via the network 18. Each device or each part in the image processing system 70 according to the seventh embodiment can be configured in the same manner as each corresponding part of the image processing apparatus 10 except that they are connected via a network.

また、図20において図示したように、画像データの原稿特性値を解析する画像解析装置74を加える構成とすることができる。   Further, as shown in FIG. 20, an image analysis device 74 for analyzing the document characteristic value of the image data can be added.

実施の形態7による画像処理システムにおいては、読み取った画像データまたはネットワークを介して入力した画像データに対して、印刷前に仕上がり予想画面および操作者が設定入力可能な入力画面をネットワークを介して表示する。そして、予想仕上がり画面を操作表示装置75の表示パネル715cに表示して、ポインターによる入力によって空間指示項目を選択し、音声入力によって言語指示項目を選択し、空間指示項目と言語指示項目とを組み合わせて画像形成の処理項目をネットワークを介して設定するので、操作者にとっては利便性が高くシステムにとっては確実性の高いものとなる。   In the image processing system according to the seventh embodiment, for the read image data or image data input via the network, a predicted finished screen and an input screen on which the operator can input settings are displayed via the network. To do. Then, an expected finished screen is displayed on the display panel 715c of the operation display device 75, a space instruction item is selected by input with a pointer, a language instruction item is selected by voice input, and the space instruction item and the language instruction item are combined. Thus, the processing items for image formation are set via the network, which is convenient for the operator and highly reliable for the system.

(ハードウェア構成など)
図21は、実施の形態による画像形成装置のハードウェア構成図である。本実施の形態による画像形成装置1000は、CPU(Central Processing Unit)1010などの制御装置と、ROM(Read Only Memory)1020やRAM1030などの記憶装置と、HDD1040、CDドライブ装置などの外部記憶装置と、モニタ1110などの表示装置と、キーボード1120、マウス1130、入力インタフェース1060などの入力装置、スキャナなどの読取装置1140、およびレーザプリンタなどの印刷装置1150を備えており、通常のコンピュータを利用したハードウェア構成となっている。
(Hardware configuration etc.)
FIG. 21 is a hardware configuration diagram of the image forming apparatus according to the embodiment. The image forming apparatus 1000 according to the present embodiment includes a control device such as a CPU (Central Processing Unit) 1010, a storage device such as a ROM (Read Only Memory) 1020 and a RAM 1030, and an external storage device such as an HDD 1040 and a CD drive device. A display device such as a monitor 1110, an input device such as a keyboard 1120, a mouse 1130, and an input interface 1060, a reading device 1140 such as a scanner, and a printing device 1150 such as a laser printer, and a hardware using a normal computer The hardware configuration.

本実施形態の画像形成装置で実行される画像形成プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されて提供される。   An image forming program executed by the image forming apparatus of the present embodiment is a file in an installable or executable format, such as a CD-ROM, a flexible disk (FD), a CD-R, a DVD (Digital Versatile Disk), or the like. The program is provided by being recorded on a computer-readable recording medium.

また、本実施形態の画像形成装置で実行される画像形成プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。また、本実施形態の画像形成装置で実行される画像形成プログラムをインターネット等のネットワーク経由で提供または配布するように構成しても良い。   Further, the image forming program executed by the image forming apparatus of the present embodiment may be provided by being stored on a computer connected to a network such as the Internet and downloaded via the network. The image forming program executed by the image forming apparatus according to the present embodiment may be provided or distributed via a network such as the Internet.

また、本実施形態の画像形成プログラムを、ROM等に予め組み込んで提供するように構成してもよい。   Further, the image forming program of the present embodiment may be provided by being incorporated in advance in a ROM or the like.

本実施の形態の画像形成装置で実行される画像形成プログラムは、上述した各部(画像処理部13、操作表示制御部151、システム制御部16、および通信制御部17を含むモジュール構成となっており、実際のハードウェアとしてはCPU1010が上記記憶媒体から画像形成プログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ、画像処理部13、操作表示制御部151、システム制御部16、通信制御部17、画像解析部81,および関連機能検索部82が主記憶装置上に生成されるようになっている。   The image forming program executed by the image forming apparatus according to the present embodiment has a module configuration including the above-described units (the image processing unit 13, the operation display control unit 151, the system control unit 16, and the communication control unit 17). As the actual hardware, the CPU 1010 reads out and executes the image forming program from the storage medium, so that the respective units are loaded onto the main storage device, and the image processing unit 13, the operation display control unit 151, the system control unit 16, A communication control unit 17, an image analysis unit 81, and a related function search unit 82 are generated on the main storage device.

本実施形態の画像形成装置で実行される画像形成プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。   An image forming program executed by the image forming apparatus of the present embodiment is a file in an installable or executable format, such as a CD-ROM, a flexible disk (FD), a CD-R, a DVD (Digital Versatile Disk), or the like. You may comprise so that it may record and provide on a computer-readable recording medium.

さらに、本実施形態の画像形成装置で実行される画像形成プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。また、本実施形態の画像形成装置で実行される画像形成プログラムをインターネット等のネットワーク経由で提供または配布するように構成しても良い。   Furthermore, the image forming program executed by the image forming apparatus of the present embodiment may be provided by being stored on a computer connected to a network such as the Internet and downloaded via the network. The image forming program executed by the image forming apparatus according to the present embodiment may be provided or distributed via a network such as the Internet.

本発明は、画像形成技術、および画像処理技術に有用であり、特に多機能を有する複合機における画像形成技術、および画像処理技術に有用である。   The present invention is useful for an image forming technique and an image processing technique, and particularly useful for an image forming technique and an image processing technique in a multi-function multifunction peripheral.

本発明の実施の形態1による画像形成装置の機能的ブロック図である。1 is a functional block diagram of an image forming apparatus according to Embodiment 1 of the present invention. 実施の形態1による画像形成装置において、操作者によるタッチパネルへの接触と発話によって画像処理項目が設定されることを説明する図である。FIG. 6 is a diagram for explaining that image processing items are set by contact and speech on the touch panel by an operator in the image forming apparatus according to the first embodiment. タッチパネルへの接触と発話によって画像処理項目が設定された仕上がり予想画面と、さらに画面上から設定を受け付けることを説明する図である。It is a figure explaining the finishing expectation screen to which the image processing item was set by the touch and utterance to a touch panel, and accepting a setting from on the screen. タッチパネルへの接触と発話によって画像処理項目が設定された仕上がり予想画面上から、両面コピーであることの設定入力を受け付けることを説明する図である。It is a figure explaining accepting the setting input that it is a double-sided copy from the finishing prediction screen in which the image processing item was set by the touch and the utterance to the touch panel. 両面コピーであることが設定された仕上がり予想画面の表示の一例を示す模式図である。FIG. 10 is a schematic diagram illustrating an example of a display of a predicted finish screen set to be duplex copying. 実施の形態1による画像形成手順を示すフローチャートである。3 is a flowchart illustrating an image forming procedure according to the first embodiment. 実施の形態2による画像形成装置の要部である画像処理部の機能的ブロック図である。5 is a functional block diagram of an image processing unit that is a main part of an image forming apparatus according to Embodiment 2. FIG. 実施の形態2による画像形成手順を示すフローチャートである。10 is a flowchart illustrating an image forming procedure according to the second embodiment. 実施の形態2による他の画像形成装置の要部である画像処理部の機能的ブロック図である。FIG. 9 is a functional block diagram of an image processing unit that is a main part of another image forming apparatus according to Embodiment 2. 実施の形態2による他の画像形成手順を示すフローチャートである。10 is a flowchart illustrating another image forming procedure according to the second embodiment. 実施の形態3による画像形成装置の要部である画像処理部の機能的ブロック図である。FIG. 10 is a functional block diagram of an image processing unit that is a main part of an image forming apparatus according to a third embodiment. 実施の形態3による画像形成手順を説明するフローチャートである。10 is a flowchart illustrating an image forming procedure according to the third embodiment. 実施の形態4による画像形成装置の要部である画像処理部の機能的ブロック図である。FIG. 10 is a functional block diagram of an image processing unit that is a main part of an image forming apparatus according to a fourth embodiment. 実施の形態4による画像形成手順を説明するフローチャートである。10 is a flowchart illustrating an image forming procedure according to the fourth embodiment. 実施の形態4による他の画像形成装置の画像処理部の機能的ブロック図である。FIG. 10 is a functional block diagram of an image processing unit of another image forming apparatus according to Embodiment 4. 実施の形態4による他の画像形成手順を説明するフローチャートである。14 is a flowchart illustrating another image forming procedure according to the fourth embodiment. 本発明の実施の形態5による画像形成装置の機能的ブロック図である。It is a functional block diagram of the image forming apparatus by Embodiment 5 of this invention. 実施の形態5による画像形成手順を示すフローチャートである。10 is a flowchart illustrating an image forming procedure according to a fifth embodiment. 実施の形態6による画像処理装置の機能的ブロック図である。FIG. 10 is a functional block diagram of an image processing apparatus according to a sixth embodiment. 実施の形態7による画像処理システムの機能的ブロック図である。FIG. 20 is a functional block diagram of an image processing system according to a seventh embodiment. 実施の形態による画像形成装置のハードウェア構成図である。1 is a hardware configuration diagram of an image forming apparatus according to an embodiment.

符号の説明Explanation of symbols

11 スキャナ
111 ADF
112 スキャナコントローラ
12 画像記憶部
13 画像処理部
131 空間項目識別部
132 言語項目識別部
133 処理項目設定部
134 画面情報生成部
14 プリンタ
141 仕上げ処理部
142 プリンタコントローラ
15 操作表示部
15a マイク
15b タッチパネル
15c 表示パネル
151 操作表示制御部
16 システム制御部
18 ネットワーク
81 画像解析部
82 関連機能検索部
821 関連機能対応表
11 Scanner 111 ADF
112 Scanner Controller 12 Image Storage Unit 13 Image Processing Unit 131 Spatial Item Identification Unit 132 Language Item Identification Unit 133 Process Item Setting Unit 134 Screen Information Generation Unit 14 Printer 141 Finishing Processing Unit 142 Printer Controller 15 Operation Display Unit 15a Microphone 15b Touch Panel 15c Display Panel 151 Operation display control unit 16 System control unit 18 Network 81 Image analysis unit 82 Related function search unit 821 Related function correspondence table

Claims (31)

画像データを入力して画像データ処理および印刷仕上げ処理後の予想画像を表示し、操作者からの画像形成の処理項目の設定を受け付ける画像形成装置であって、
前記予想画像の予想画像情報を生成する予想画像情報生成手段と、
前記予想画像情報生成手段によって生成された予想画像情報に基づいて前記予想画像を表示する表示手段と、
前記予想画像を表示する表示手段への、前記操作者の指先およびスタイラスの少なくともいずれかを含む接触物の接触により、前記予想画像に関する空間情報を取得し空間的な設定である空間指示項目を識別する空間項目識別手段と、
音声情報を受け付けて受け付けた前記音声情報から言語を介する設定である言語指示項目を識別する言語項目識別手段と、
前記空間項目識別手段により識別された空間指示項目および前記言語項目識別手段によって識別された言語指示項目の中から選択して、前記画像形成の処理項目を設定する設定手段と、
を備えたことを特徴とする画像形成装置。
An image forming apparatus that inputs image data, displays an expected image after image data processing and print finishing processing, and receives setting of processing items for image formation from an operator,
Predicted image information generating means for generating predicted image information of the predicted image;
Display means for displaying the predicted image based on the predicted image information generated by the predicted image information generating means;
Spatial information related to the predicted image is obtained by contact of a contact object including at least one of the fingertip of the operator and a stylus on the display unit that displays the predicted image, and a spatial indication item that is a spatial setting is identified. Spatial item identification means to
Language item identifying means for receiving language information and identifying language instruction items that are settings via language from the received speech information;
A setting unit configured to select the space instruction item identified by the space item identification unit and the language instruction item identified by the language item identification unit, and set the processing item for image formation;
An image forming apparatus comprising:
前記予想画像情報生成手段は、前記設定手段によって設定された前記画像形成の処理項目に基づいて予想画像情報を生成するものであり、
前記表示手段は、前記予想画像情報生成手段によって生成された予想画像情報に基づいて前記予想画像を表示するものであることを特徴とする請求項1に記載の画像形成装置。
The predicted image information generating unit generates predicted image information based on the processing items of the image formation set by the setting unit,
The image forming apparatus according to claim 1, wherein the display unit is configured to display the predicted image based on the predicted image information generated by the predicted image information generating unit.
前記空間指示項目および前記言語指示項目を関連させて記憶する設定項目記憶手段を、さらに備え、
前記設定手段は、前記設定項目記憶手段によって記憶された前記空間指示項目および言語指示項目の少なくともいずれかを参照して、前記画像形成の処理項目を設定するものであることを特徴とする請求項1または2に記載の画像形成装置。
A setting item storage means for storing the space instruction item and the language instruction item in association with each other;
2. The image forming processing item according to claim 1, wherein the setting unit sets the image forming processing item with reference to at least one of the space instruction item and the language instruction item stored by the setting item storage unit. The image forming apparatus according to 1 or 2.
前記空間項目識別手段は、前記接触物が前記表示手段の画像に接触する位置、方向、および領域の少なくとも一つを含む空間情報を取得して空間指示項目を識別するものであり、
前記言語項目識別手段は、前記操作者の発話による音声を受け付けて言語指示項目を識別するものであり、
前記設定手段は、前記空間指示項目および前記言語指示項目の中から選択して前記画像形成の処理項目を設定するものであることを特徴とする請求項1〜3のいずれか1つに記載の画像形成装置。
The space item identification means is for identifying space instruction items by acquiring space information including at least one of a position, a direction, and a region where the contact object contacts the image of the display means,
The language item identifying means is for identifying a language instruction item by receiving a voice by the operator's utterance,
The said setting means selects from the said space instruction | indication item and the said language instruction | indication item, and sets the processing item of the said image formation, The any one of Claims 1-3 characterized by the above-mentioned. Image forming apparatus.
前記表示手段は、前記予想画像を表示するタッチパネルを有し、
前記空間項目識別手段は、前記タッチパネル上で前記接触物が接触することにより前記空間情報を取得し、前記空間指示項目を識別するものであることを特徴とする請求項1〜4のいずれか1つに記載の画像形成装置。
The display means has a touch panel for displaying the predicted image,
5. The space item identifying unit is configured to acquire the space information when the contact object comes in contact with the touch panel to identify the space instruction item. The image forming apparatus described in 1.
前記空間項目識別手段は、前記タッチパネル上の前記接触物が接触する軌跡から前記空間情報を識別するものであることを特徴とする請求項5に記載の画像形成装置。   The image forming apparatus according to claim 5, wherein the space item identifying unit is configured to identify the space information from a locus of contact of the contact object on the touch panel. 前記設定手段は、前記空間指示項目および前記言語指示項目のうちの一方の指示項目を選択した場合、他方の指示項目の候補の数を制限して選択し、選択された前記一方および前記他方の指示項目のうちから前記画像形成の処理項目を設定するものであることを特徴とする請求項1〜6のいずれか1つに記載の画像形成装置。   When the setting means selects one of the space instruction item and the language instruction item, the setting means selects and limits the number of candidates for the other instruction item, and selects the selected one and the other The image forming apparatus according to claim 1, wherein the image forming process item is set from among the instruction items. 前記設定手段は、前記一方を前記空間指示項目とし、かつ、前記他方を前記言語指示項目として選択して、前記画像形成の処理項目を設定するものであることを特徴とする請求項7に記載の画像形成装置。   8. The image forming processing item according to claim 7, wherein the setting unit selects the one as the space instruction item and the other as the language instruction item, and sets the image formation processing item. Image forming apparatus. 前記設定手段は、前記一方を前記言語指示項目とし、かつ、前記他方を前記空間指示項目として選択して、前記画像形成の処理項目を設定するものであることを特徴とする請求項7に記載の画像形成装置。   8. The image forming process item according to claim 7, wherein the setting unit sets the image formation processing item by selecting the one as the language instruction item and the other as the space instruction item. Image forming apparatus. 前記空間項目識別手段は、前記空間指示項目に対する確実度の情報である空間確実度を識別し、
前記言語項目識別手段は、前記言語指示項目に対する確実度の情報である言語確実度を識別し、
前記設定手段は、識別された前記空間確実度および言語確実度に基づいて、前記画像形成の処理項目を設定するものであることを特徴とする請求項1〜9のいずれか1つに記載の画像形成装置。
The space item identifying means identifies space certainty that is information of certainty for the space indicating item,
The language item identifying means identifies language certainty that is information of certainty for the language instruction item;
The said setting means sets the process item of the said image formation based on the identified said space certainty and language certainty, The any one of Claims 1-9 characterized by the above-mentioned. Image forming apparatus.
前記設定手段は、前記空間指示項目と前記言語指示項目との関連度の情報である項目関連度を決定するものであり、
前記設定手段は、前記空間指示項目、言語指示項目、および決定された前記項目関連度に基づいて前記画像形成の処理項目を設定するものであることを特徴とする請求項10に記載の画像形成装置。
The setting means determines an item relevance level, which is information on a relevance level between the space instruction item and the language instruction item,
The image forming apparatus according to claim 10, wherein the setting unit sets the image forming processing item based on the space instruction item, the language instruction item, and the determined item relevance. apparatus.
前記設定手段は、前記空間確実度、言語確実度、および決定された前記項目関連度に対してそれぞれ重みを付けた重み付け加算に従って前記処理項目を設定するものであることを特徴とする請求項11に記載の画像形成装置。   The said setting means sets the said processing item according to the weighting addition which weighted with respect to the said space certainty degree, language certainty degree, and the determined said item relevance degree, respectively. The image forming apparatus described in 1. 前記入力した画像データを解析して原稿特性値を抽出する画像解析手段をさらに備え、
前記予想画像情報生成手段は、前記画像解析手段によって抽出された原稿特性値に基づいて前記予想画像情報を生成するものであることを特徴とする請求項1〜12のいずれか1つに記載の画像形成装置。
Image analysis means for analyzing the input image data and extracting document characteristic values;
The predicted image information generation unit generates the predicted image information based on a document characteristic value extracted by the image analysis unit. Image forming apparatus.
画像データを入力して画像データ処理および印刷仕上げ処理後の予想画像を表示し、操作者からの画像形成の処理項目の設定を受け付ける画像形成方法であって、
前記予想画像の予想画像情報を生成する予想画像情報生成工程と、
前記予想画像情報生成工程において生成された予想画像情報に基づいて前記予想画像を表示する表示工程と、
前記表示工程において表示された予想画像に対して、前記操作者の指先およびスタイラスの少なくともいずれかを含む接触物の接触により前記予想画像に関する空間情報を取得して、空間的な設定である空間指示項目を識別する空間項目識別工程と、
音声情報を受け付けて受け付けた前記音声情報から言語を介する設定である言語指示項目を識別する言語項目識別工程と、
前記空間項目識別工程において識別された空間指示項目および前記言語項目識別工程において識別された言語指示項目の中から選択して、前記画像形成の処理項目を設定する設定工程と、
を含むことを特徴とする画像形成方法。
An image forming method for inputting image data, displaying an expected image after image data processing and print finishing processing, and accepting setting of processing items for image formation from an operator,
A predicted image information generation step of generating predicted image information of the predicted image;
A display step of displaying the predicted image based on the predicted image information generated in the predicted image information generating step;
Spatial information that is a spatial setting by acquiring spatial information regarding the predicted image by contacting a predicted object displayed in the display step with a contact object including at least one of the fingertip of the operator and a stylus. Spatial item identification process for identifying items;
A language item identifying step for identifying a language instruction item which is a setting via language from the received voice information by receiving voice information;
A setting step for setting the image formation processing item by selecting from the space instruction item identified in the space item identification step and the language instruction item identified in the language item identification step;
An image forming method comprising:
前記予想画像情報生成工程は、前記設定工程において設定された前記画像形成の処理項目に基づいて予想画像情報を生成するものであり、
前記表示工程は、前記予想画像情報生成工程において生成された予想画像情報に基づいて前記予想画像を表示するものであることを特徴とする請求項14に記載の画像形成方法。
The predicted image information generation step is to generate predicted image information based on the image formation processing items set in the setting step,
15. The image forming method according to claim 14, wherein the display step displays the predicted image based on the predicted image information generated in the predicted image information generation step.
前記空間指示項目および前記言語指示項目を関連させて記憶する設定項目記憶工程を、さらに含み、
前記設定工程は、前記設定項目記憶工程において記憶された前記空間指示項目および言語指示項目の少なくともいずれかを参照して、前記画像形成の処理項目を設定するものであることを特徴とする請求項14または15に記載の画像形成方法。
A setting item storing step of storing the space instruction item and the language instruction item in association with each other;
The image forming process item is set in the setting step with reference to at least one of the space instruction item and the language instruction item stored in the setting item storage step. The image forming method according to 14 or 15.
前記空間項目識別工程は、前記接触物が前記表示工程による画像に接触する位置、方向、および領域の少なくとも一つを含む空間情報を取得して空間指示項目を識別するものであり、
前記言語項目識別工程は、前記操作者の発話による音声を受け付けて言語指示項目を識別するものであり、
前記設定工程は、前記空間指示項目および前記言語指示項目の中から選択して前記画像形成の処理項目を設定するものであることを特徴とする請求項14〜16のいずれか1つに記載の画像形成方法。
The space item identification step is to identify a space instruction item by acquiring space information including at least one of a position, a direction, and a region where the contact object contacts an image obtained by the display step.
The language item identification step is to identify a language instruction item by receiving a voice by the operator's utterance,
17. The method according to claim 14, wherein the setting step is to select a processing item for image formation by selecting from the space instruction item and the language instruction item. Image forming method.
前記設定工程は、前記空間指示項目および前記言語指示項目のうちの一方の指示項目を選択した場合、他方の指示項目の候補の数を制限して選択し、選択された前記一方および前記他方の指示項目のうちから前記画像形成の処理項目を設定するものであることを特徴とする請求項14〜17のいずれか1つに記載の画像形成方法。   In the setting step, when one instruction item of the space instruction item and the language instruction item is selected, the number of candidates for the other instruction item is limited and selected, and the selected one and the other of the selected instruction items are selected. The image forming method according to claim 14, wherein the image forming process item is set from among the instruction items. 前記設定工程は、前記一方を前記空間指示項目とし、かつ、前記他方を前記言語指示項目として前記処理項目の候補を選択して、前記画像形成の処理項目を設定するものであることを特徴とする請求項18に記載の画像形成方法。   In the setting step, the processing item for image formation is set by selecting a candidate for the processing item using the one as the space instruction item and the other as the language instruction item. The image forming method according to claim 18. 前記設定工程は、前記一方を前記言語指示項目とし、かつ、前記他方を前記空間指示項目として前記処理項目の候補を選択して、前記画像形成の処理項目を設定するものであることを特徴とする請求項18に記載の画像形成方法。   In the setting step, the processing item for image formation is set by selecting a candidate for the processing item with the one as the language instruction item and the other as the space instruction item. The image forming method according to claim 18. 前記空間項目識別工程は、前記空間指示項目に対する確実度の情報である空間確実度を識別し、
前記言語項目識別工程は、前記言語指示項目に対する確実度の情報である言語確実度を識別し、
前記設定工程は、識別された前記空間確実度および言語確実度に基づいて、前記画像形成の処理項目を設定するものであることを特徴とする請求項14〜20のいずれか1つに記載の画像形成方法。
The space item identifying step identifies space certainty that is information of certainty for the space indicating item,
The language item identifying step identifies language certainty that is information of certainty for the language instruction item,
The said setting process sets the process item of the said image formation based on the identified said space certainty and language certainty, The one of Claims 14-20 characterized by the above-mentioned. Image forming method.
前記設定工程は、前記空間指示項目と前記言語指示項目との関連度の情報である項目関連度を決定するものであり、
前記設定工程は、前記空間指示項目、言語指示項目、および決定された前記項目関連度に基づいて前記画像形成の処理項目を設定するものであることを特徴とする請求項21に記載の画像形成方法。
The setting step is to determine an item relevance level that is information on a relevance level between the space instruction item and the language instruction item.
The image formation according to claim 21, wherein the setting step sets the processing items for the image formation based on the space instruction item, the language instruction item, and the determined item relevance. Method.
前記設定工程は、前記空間確実度、言語確実度、および決定された前記項目関連度に対してそれぞれ重みを付けた重み付け加算に従って前記処理項目を設定するものであることを特徴とする請求項22に記載の画像形成方法。   23. The setting step includes setting the processing items according to a weighted addition in which the space certainty, language certainty, and the determined item relevance are weighted. The image forming method described in 1. 前記入力した画像データを解析して原稿特性値を抽出する画像解析工程をさらに含み、
前記予想画像情報生成工程は、前記画像解析工程において抽出された原稿特性値に基づいて前記予想画像情報を生成するものであることを特徴とする請求項14〜23のいずれか1つに記載の画像形成方法。
An image analysis step of analyzing the input image data and extracting a document characteristic value;
24. The predicted image information generation step generates the predicted image information based on the document characteristic value extracted in the image analysis step. Image forming method.
請求項14〜24のいずれか1つに記載の画像形成方法をコンピュータに実行させることを特徴とするプログラム。   A program causing a computer to execute the image forming method according to any one of claims 14 to 24. 画像データを入力して画像データ処理および印刷仕上げ処理後の予想画像を表示し、操作者からの画像形成の処理項目の設定を受け付ける画像形成装置における画像処理装置であって、
前記予想画像の予想画像情報を生成する予想画像情報生成手段と、
前記予想画像情報生成手段によって生成された予想画像情報に基づいて前記予想画像を表示する表示手段と、
前記予想画像を表示する表示手段への、前記操作者の指先およびスタイラスの少なくともいずれかを含む接触物の接触により、前記予想画像に関する空間情報を取得し空間的な設定である空間指示項目を識別する空間項目識別手段と、
音声情報を受け付けて受け付けた前記音声情報から言語を介する設定である言語指示項目を識別する言語項目識別手段と、
前記空間項目識別手段により識別された空間指示項目および前記言語項目識別手段によって識別された言語指示項目の中から選択して、前記画像形成の処理項目を設定する設定手段と、
を備えたことを特徴とする画像処理装置。
An image processing apparatus in an image forming apparatus that inputs image data, displays an expected image after image data processing and print finishing processing, and receives setting of processing items for image formation from an operator,
Predicted image information generating means for generating predicted image information of the predicted image;
Display means for displaying the predicted image based on the predicted image information generated by the predicted image information generating means;
Spatial information related to the predicted image is obtained by contact of a contact object including at least one of the fingertip of the operator and a stylus on the display unit that displays the predicted image, and a spatial indication item that is a spatial setting is identified. Spatial item identification means to
Language item identifying means for receiving language information and identifying language instruction items that are settings via language from the received speech information;
A setting unit configured to select the space instruction item identified by the space item identification unit and the language instruction item identified by the language item identification unit, and set the processing item for image formation;
An image processing apparatus comprising:
前記予想画像情報生成手段は、前記設定手段によって設定された前記画像形成の処理項目に基づいて予想画像情報を生成するものであり、
前記表示手段は、前記予想画像情報生成手段によって生成された予想画像情報に基づいて前記予想画像を表示するものであることを特徴とする請求項26に記載の画像処理装置。
The predicted image information generating unit generates predicted image information based on the processing items of the image formation set by the setting unit,
27. The image processing apparatus according to claim 26, wherein the display unit is configured to display the predicted image based on the predicted image information generated by the predicted image information generating unit.
前記空間指示項目および前記言語指示項目を関連させて記憶する設定項目記憶手段を、さらに備え、
前記設定手段は、前記設定項目記憶手段によって記憶された前記空間指示項目および言語指示項目の少なくともいずれかを参照して、前記画像形成の処理項目を設定するものであることを特徴とする請求項26または27に記載の画像処理装置。
A setting item storage means for storing the space instruction item and the language instruction item in association with each other;
2. The image forming processing item according to claim 1, wherein the setting unit sets the image forming processing item with reference to at least one of the space instruction item and the language instruction item stored by the setting item storage unit. The image processing apparatus according to 26 or 27.
ネットワーク接続され、画像データを入力して画像データ処理および印刷仕上げ処理後の予想画像を表示し、操作者からの画像形成の処理項目の設定を受け付ける画像処理システムであって、それぞれのうち2つ以上が前記ネットワーク接続され、
前記予想画像の予想画像情報を生成する予想画像情報生成手段と、
前記予想画像情報生成手段によって生成された予想画像情報に基づいて前記予想画像を表示する表示手段と、
前記予想画像を表示する表示手段への、前記操作者の指先およびスタイラスの少なくともいずれかを含む接触物の接触により、前記予想画像に関する空間情報を取得し空間的な設定である空間指示項目を識別する空間項目識別手段と、
音声情報を受け付けて受け付けた前記音声情報から言語を介する設定である言語指示項目を識別する言語項目識別手段と、
前記空間項目識別手段により識別された空間指示項目および前記言語項目識別手段によって識別された言語指示項目の中から選択して、前記画像形成の処理項目を設定する設定手段と、
を備えたことを特徴とする画像処理システム。
An image processing system that is connected to a network, displays image data processing and an expected image after print finishing processing by inputting image data, and accepts setting of processing items for image formation from an operator, two of each The above is connected to the network,
Predicted image information generating means for generating predicted image information of the predicted image;
Display means for displaying the predicted image based on the predicted image information generated by the predicted image information generating means;
Spatial information related to the predicted image is obtained by contact of a contact object including at least one of the fingertip of the operator and a stylus on the display unit that displays the predicted image, and a spatial indication item that is a spatial setting is identified. Spatial item identification means to
Language item identifying means for receiving language information and identifying language instruction items that are settings via language from the received speech information;
A setting unit configured to select the space instruction item identified by the space item identification unit and the language instruction item identified by the language item identification unit, and set the processing item for image formation;
An image processing system comprising:
前記予想画像情報生成手段は、前記設定手段によって設定された前記画像形成の処理項目に基づいて予想画像情報を生成するものであり、
前記表示手段は、前記予想画像情報生成手段によって生成された予想画像情報に基づいて前記予想画像を表示するものであることを特徴とする請求項29に記載の画像処理システム。
The predicted image information generating unit generates predicted image information based on the processing items of the image formation set by the setting unit,
30. The image processing system according to claim 29, wherein the display unit displays the predicted image based on the predicted image information generated by the predicted image information generating unit.
前記ネットワークに接続されて、前記空間指示項目および前記言語指示項目を関連させて記憶する設定項目記憶手段を、さらに備え、
前記設定手段は、前記設定項目記憶手段によって記憶された前記空間指示項目および言語指示項目の少なくともいずれかを参照して、前記画像形成の処理項目を設定するものであることを特徴とする請求項29または30に記載の画像処理システム。
A setting item storage unit connected to the network and storing the space instruction item and the language instruction item in association with each other;
2. The image forming processing item according to claim 1, wherein the setting unit sets the image forming processing item with reference to at least one of the space instruction item and the language instruction item stored by the setting item storage unit. The image processing system according to 29 or 30.
JP2004268846A 2004-06-16 2004-09-15 Image forming apparatus, image forming method, program for causing computer to execute the method, image processing apparatus, and image processing system Expired - Fee Related JP4520262B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2004268846A JP4520262B2 (en) 2004-09-15 2004-09-15 Image forming apparatus, image forming method, program for causing computer to execute the method, image processing apparatus, and image processing system
US11/153,911 US7528990B2 (en) 2004-06-16 2005-06-16 Image-forming system with improved workability by displaying image finish and setting items in course of processing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004268846A JP4520262B2 (en) 2004-09-15 2004-09-15 Image forming apparatus, image forming method, program for causing computer to execute the method, image processing apparatus, and image processing system

Publications (2)

Publication Number Publication Date
JP2006086755A true JP2006086755A (en) 2006-03-30
JP4520262B2 JP4520262B2 (en) 2010-08-04

Family

ID=36164900

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004268846A Expired - Fee Related JP4520262B2 (en) 2004-06-16 2004-09-15 Image forming apparatus, image forming method, program for causing computer to execute the method, image processing apparatus, and image processing system

Country Status (1)

Country Link
JP (1) JP4520262B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8542198B2 (en) 2009-08-24 2013-09-24 Xerox Corporation Multi-touch input actual-size display screen for scanned items
JP2013222229A (en) * 2012-04-12 2013-10-28 Konica Minolta Inc Input operation device, image forming apparatus including the device, input operation method, and input operation program
JP2020049666A (en) * 2018-09-21 2020-04-02 ブラザー工業株式会社 Printer
JP2020088830A (en) * 2018-11-30 2020-06-04 株式会社リコー Information processing system, program, and information processing method
JP2020166729A (en) * 2019-03-29 2020-10-08 京セラドキュメントソリューションズ株式会社 Display control device, display control method, and display control program

Citations (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6237734A (en) * 1985-08-12 1987-02-18 Matsushita Electric Ind Co Ltd Instruction selector
JPS62247452A (en) * 1986-04-19 1987-10-28 Casio Comput Co Ltd Word processor with format setting function
JPH06284274A (en) * 1993-03-25 1994-10-07 Toshiba Corp Picture processor
JPH08279884A (en) * 1995-02-08 1996-10-22 Ricoh Co Ltd Image forming device
JPH09114492A (en) * 1995-10-23 1997-05-02 Denso Corp Speech recognizing device
JP2775670B2 (en) * 1994-12-16 1998-07-16 カシオ計算機株式会社 Document processing device
JPH11149470A (en) * 1997-11-18 1999-06-02 Fujitsu Ltd Information processor and storage medium
JPH11334493A (en) * 1998-05-25 1999-12-07 Fujikura Ltd Input system for automobile
JP2000089889A (en) * 1998-09-14 2000-03-31 Sharp Corp Input display device
JP2000200275A (en) * 1999-01-07 2000-07-18 Hitachi Ltd Translating device and recording medium
JP2000203356A (en) * 1999-01-12 2000-07-25 Fujikura Ltd Input device for automobile
JP2000209378A (en) * 1999-01-20 2000-07-28 Ricoh Co Ltd Image forming device
JP2001042890A (en) * 1999-07-30 2001-02-16 Toshiba Tec Corp Voice recognizing device
JP2001268669A (en) * 2000-03-21 2001-09-28 Ricoh Co Ltd Device and method for equipment control using mobile telephone terminal and recording medium
JP2001278535A (en) * 2000-03-30 2001-10-10 Konica Corp Image forming device
JP2001285534A (en) * 2000-03-30 2001-10-12 Canon Inc Image-forming device and its image read condition setting method
JP2001282410A (en) * 2000-03-31 2001-10-12 Sharp Corp Input display device
JP2002328766A (en) * 2001-04-27 2002-11-15 Nippon Telegr & Teleph Corp <Ntt> Keyboardless input device and its method and program for executing the same method and its recording medium
JP2003005471A (en) * 2001-06-20 2003-01-08 Fuji Xerox Co Ltd Preview display device as well as form treating equipment and method for the same
JP3406766B2 (en) * 1996-02-09 2003-05-12 株式会社リコー Image forming device
JP2003195885A (en) * 2001-12-25 2003-07-09 Canon Inc Communication device and its control method
JP2003233491A (en) * 2002-02-08 2003-08-22 Konica Corp System for print processing, and program
JP2004012809A (en) * 2002-06-06 2004-01-15 Canon Inc Sound recognition device and control method therefor
JP2004062517A (en) * 2002-07-29 2004-02-26 Nec Corp Voice controller, voice control method and program
JP2004102632A (en) * 2002-09-09 2004-04-02 Ricoh Co Ltd Voice recognition device and image processor
JP2004145469A (en) * 2002-10-22 2004-05-20 Canon Inc Data input device and data input method
JP2004248057A (en) * 2003-02-14 2004-09-02 Ricoh Co Ltd Image forming device
JP2005242371A (en) * 2005-03-10 2005-09-08 Ricoh Co Ltd Device and method for speech recognition
JP2006003568A (en) * 2004-06-16 2006-01-05 Ricoh Co Ltd Image forming apparatus, image forming method, program for making computer execute the method, image processing system and image processing apparatus
JP2006067235A (en) * 2004-08-26 2006-03-09 Ricoh Co Ltd Device and method for forming image, program carrying out its method by computer, image processor, and image processing system

Patent Citations (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6237734A (en) * 1985-08-12 1987-02-18 Matsushita Electric Ind Co Ltd Instruction selector
JPS62247452A (en) * 1986-04-19 1987-10-28 Casio Comput Co Ltd Word processor with format setting function
JPH06284274A (en) * 1993-03-25 1994-10-07 Toshiba Corp Picture processor
JP2775670B2 (en) * 1994-12-16 1998-07-16 カシオ計算機株式会社 Document processing device
JPH08279884A (en) * 1995-02-08 1996-10-22 Ricoh Co Ltd Image forming device
JPH09114492A (en) * 1995-10-23 1997-05-02 Denso Corp Speech recognizing device
JP3406766B2 (en) * 1996-02-09 2003-05-12 株式会社リコー Image forming device
JPH11149470A (en) * 1997-11-18 1999-06-02 Fujitsu Ltd Information processor and storage medium
JPH11334493A (en) * 1998-05-25 1999-12-07 Fujikura Ltd Input system for automobile
JP2000089889A (en) * 1998-09-14 2000-03-31 Sharp Corp Input display device
JP2000200275A (en) * 1999-01-07 2000-07-18 Hitachi Ltd Translating device and recording medium
JP2000203356A (en) * 1999-01-12 2000-07-25 Fujikura Ltd Input device for automobile
JP2000209378A (en) * 1999-01-20 2000-07-28 Ricoh Co Ltd Image forming device
JP2001042890A (en) * 1999-07-30 2001-02-16 Toshiba Tec Corp Voice recognizing device
JP2001268669A (en) * 2000-03-21 2001-09-28 Ricoh Co Ltd Device and method for equipment control using mobile telephone terminal and recording medium
JP2001278535A (en) * 2000-03-30 2001-10-10 Konica Corp Image forming device
JP2001285534A (en) * 2000-03-30 2001-10-12 Canon Inc Image-forming device and its image read condition setting method
JP2001282410A (en) * 2000-03-31 2001-10-12 Sharp Corp Input display device
JP2002328766A (en) * 2001-04-27 2002-11-15 Nippon Telegr & Teleph Corp <Ntt> Keyboardless input device and its method and program for executing the same method and its recording medium
JP2003005471A (en) * 2001-06-20 2003-01-08 Fuji Xerox Co Ltd Preview display device as well as form treating equipment and method for the same
JP2003195885A (en) * 2001-12-25 2003-07-09 Canon Inc Communication device and its control method
JP2003233491A (en) * 2002-02-08 2003-08-22 Konica Corp System for print processing, and program
JP2004012809A (en) * 2002-06-06 2004-01-15 Canon Inc Sound recognition device and control method therefor
JP2004062517A (en) * 2002-07-29 2004-02-26 Nec Corp Voice controller, voice control method and program
JP2004102632A (en) * 2002-09-09 2004-04-02 Ricoh Co Ltd Voice recognition device and image processor
JP2004145469A (en) * 2002-10-22 2004-05-20 Canon Inc Data input device and data input method
JP2004248057A (en) * 2003-02-14 2004-09-02 Ricoh Co Ltd Image forming device
JP2006003568A (en) * 2004-06-16 2006-01-05 Ricoh Co Ltd Image forming apparatus, image forming method, program for making computer execute the method, image processing system and image processing apparatus
JP2006067235A (en) * 2004-08-26 2006-03-09 Ricoh Co Ltd Device and method for forming image, program carrying out its method by computer, image processor, and image processing system
JP2005242371A (en) * 2005-03-10 2005-09-08 Ricoh Co Ltd Device and method for speech recognition

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8542198B2 (en) 2009-08-24 2013-09-24 Xerox Corporation Multi-touch input actual-size display screen for scanned items
JP2013222229A (en) * 2012-04-12 2013-10-28 Konica Minolta Inc Input operation device, image forming apparatus including the device, input operation method, and input operation program
JP2020049666A (en) * 2018-09-21 2020-04-02 ブラザー工業株式会社 Printer
JP7148886B2 (en) 2018-09-21 2022-10-06 ブラザー工業株式会社 printer
JP2020088830A (en) * 2018-11-30 2020-06-04 株式会社リコー Information processing system, program, and information processing method
JP7151428B2 (en) 2018-11-30 2022-10-12 株式会社リコー Information processing system, program and information processing method
JP2020166729A (en) * 2019-03-29 2020-10-08 京セラドキュメントソリューションズ株式会社 Display control device, display control method, and display control program
JP7268449B2 (en) 2019-03-29 2023-05-08 京セラドキュメントソリューションズ株式会社 Display control device, display control method, and display control program

Also Published As

Publication number Publication date
JP4520262B2 (en) 2010-08-04

Similar Documents

Publication Publication Date Title
US7528990B2 (en) Image-forming system with improved workability by displaying image finish and setting items in course of processing
JP7367750B2 (en) Image processing device, image processing device control method, and program
JP4817851B2 (en) Image forming apparatus, image forming system, image forming method, and program for causing computer to execute the method
JP2006003568A (en) Image forming apparatus, image forming method, program for making computer execute the method, image processing system and image processing apparatus
US20200249883A1 (en) Image forming apparatus, image forming system, and information processing method
US10810383B2 (en) Image processing apparatus for comparing documents in different languages
JP2018046416A (en) Information processing device and program
JP2006041947A (en) Image-forming apparatus, image forming method, and program for executing the method by computer
JP2019109628A5 (en)
JP4520262B2 (en) Image forming apparatus, image forming method, program for causing computer to execute the method, image processing apparatus, and image processing system
JP2008197229A (en) Speech recognition dictionary construction device and program
JP4768274B2 (en) Image forming apparatus, image forming method, and program for causing computer to execute the method
US10902223B2 (en) Image processing apparatus
JP2011193139A (en) Image forming apparatus
JP2006067235A (en) Device and method for forming image, program carrying out its method by computer, image processor, and image processing system
JP2008236168A (en) Image processor, and processing condition setting method and program
JP2009048293A (en) Information processing system, information processing execution program and image processor
JP2019109629A5 (en)
JP2009026075A (en) Image processing device
JP2007124045A (en) Image forming apparatus
JP2006133880A (en) Information processor and information processing method
JP2007048061A (en) Character processing device, character processing method, and recording medium
JP2020181044A (en) Information processor, control method of the same and program
US11849086B2 (en) Image processing apparatus capable of extracting portion of document image specified by preset index and subjecting character string in extracted portion to processing associated with index
JP7081451B2 (en) Setting control device, control method of setting control device, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070824

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090825

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090908

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100223

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100421

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100518

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100520

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130528

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140528

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees