JP2006086755A - Image forming apparatus, image forming method, program for executing its method by computer, image processor, and image processing system - Google Patents
Image forming apparatus, image forming method, program for executing its method by computer, image processor, and image processing system Download PDFInfo
- Publication number
- JP2006086755A JP2006086755A JP2004268846A JP2004268846A JP2006086755A JP 2006086755 A JP2006086755 A JP 2006086755A JP 2004268846 A JP2004268846 A JP 2004268846A JP 2004268846 A JP2004268846 A JP 2004268846A JP 2006086755 A JP2006086755 A JP 2006086755A
- Authority
- JP
- Japan
- Prior art keywords
- item
- image
- language
- setting
- space
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Accessory Devices And Overall Control Thereof (AREA)
- Record Information Processing For Printing (AREA)
- Control Or Security For Electrophotography (AREA)
- Facsimiles In General (AREA)
- Editing Of Facsimile Originals (AREA)
Abstract
Description
本発明は、画像形成装置、画像形成方法、その方法をコンピュータに実行させるプログラム、画像処理装置、および画像処理システムに関し、特に入力した画像データから仕上がり予想状態および設定入力画面を表示して、操作者からの設定入力を受け付ける画像形成装置、画像形成方法、その方法をコンピュータに実行させるプログラム、画像処理装置、および画像処理システムに関するものである。 The present invention relates to an image forming apparatus, an image forming method, a program for causing a computer to execute the method, an image processing apparatus, and an image processing system, and in particular, displays a predicted finish state and a setting input screen from input image data, and operates them. The present invention relates to an image forming apparatus that accepts setting input from a person, an image forming method, a program that causes a computer to execute the method, an image processing apparatus, and an image processing system.
従来、原稿画像を読み取るスキャナ、スキャナで読み取った原稿画像を印刷する複写機、外部から入力された画像データを印刷するプリンタやファクシミリ装置、あるいは、これらの機能を兼ね備えた複合機などの画像形成装置が用いられていた。 Conventionally, an image forming apparatus such as a scanner for reading an original image, a copying machine for printing an original image read by the scanner, a printer or a facsimile apparatus for printing image data input from the outside, or a multifunction machine having these functions Was used.
この種の画像形成装置にあっては、原稿の種類や濃度といった原稿の状態に関する設定、拡大率・縮小率、片面・両面、あるいは余白サイズなどの各種画像処理に関する設定、ソート、ステープル処理、あるいはパンチ穴あけといった仕上げ処理に関する設定など、様々な機能に関する設定をユーザは行う必要がある。このため、ユーザは、印刷設定に関する非常に膨大なメニュー項目の中から所望の機能を探し出し、正確な設定入力を行わなければならなかった。 In this type of image forming apparatus, settings relating to the state of the original such as the type and density of the original, settings relating to various image processing such as the enlargement / reduction ratio, single side / double side, or margin size, sorting, stapling, or The user needs to make settings related to various functions such as settings related to finishing processing such as punching. For this reason, the user has to find out a desired function from a very large number of menu items related to print settings and to perform accurate setting input.
これは、機器側で原稿内容に関する情報を把握していないため、原稿によっては設定する必要のない機能に関する選択肢までメニュー項目中に存在させる必要があり、メニューが非常に複雑となり、ユーザの印刷設定に関する操作の利便性が損なわれる結果となっていた。 This is because the device does not know the information about the contents of the document, so it is necessary to make the menu items include options related to functions that do not need to be set depending on the document. As a result, the convenience of the operation was impaired.
そこで、コンタクトガラス上に原稿が載置され、原稿押えカバーが閉じると同時にプレスキャンが実行され、読み取った画像に基づいてカラー画像と白黒画像との判別、あるいは、文字部と写真部との判別を行うことにより、原稿画像に応じた画像処理を自動的に分離処理して、操作性等の向上を図った画像形成装置があった(特許文献1参照)。 Therefore, an original is placed on the contact glass, and the pre-scan is executed at the same time as the original cover is closed. Based on the read image, a color image and a black and white image are discriminated, or a character portion and a photo portion are discriminated. By performing the above, there has been an image forming apparatus in which image processing according to a document image is automatically separated to improve operability (see Patent Document 1).
また、ユーザが原稿の読み取り条件の設定を任意に行った場合、その内容を1つのグループとし、画像形成装置に表示される読み込み条件ボタンに対応させて記憶し、事前に登録された内容は、この読み込み条件ボタンを指定することで呼び出して、複数の設定項目が登録済みの設定値に自動更新することにより、原稿読み取り条件の設定を容易に行うことのできる画像形成装置があった(特許文献2参照)。 Further, when the user arbitrarily sets the document reading conditions, the contents are grouped into one group and stored in correspondence with the reading condition buttons displayed on the image forming apparatus. There has been an image forming apparatus that can be called by specifying this reading condition button and can easily set document reading conditions by automatically updating a plurality of setting items to registered setting values (Patent Literature). 2).
しかしながら、このような従来技術にあっては、ユーザが印刷設定を行う際に、膨大なメニュー項目の中から所望の機能を探し出して、正確な設定入力を行わなければならないため、煩雑な上に、作業効率が悪くなるという問題があった。 However, in such a conventional technique, when a user performs print settings, it is necessary to search for a desired function from a large number of menu items and perform accurate setting input. There was a problem that work efficiency deteriorated.
この傾向は、特に最近の高機能な画像形成装置のように、使用頻度の高いものから使用頻度の低いものまで非常に豊富な機能を有しているもの、あるいは、それらを組み合わせた複合機などでは、印刷設定を行う際により重大な問題となってきている。 This trend is particularly high in the recent high-function image forming devices, such as those with abundant functions from those that are used frequently to those that are used infrequently, or multifunction devices that combine them. However, it has become a more serious problem when performing print settings.
上記特許文献1では、原稿をプレスキャンして読み取った画像に基づいて画像の種類を判別し、判別した画像に基づいて画像が自動的に分離処理されるが、スキャン結果が印刷設定画面に表示される設定項目に直接反映されないため、印刷設定作業の効率化が図れないという問題があった。
In
また、上記特許文献2では、ユーザが原稿の読み取り条件の設定を任意に行い、その内容を1つのグループとして読み込み条件ボタンに対応させて記憶しておく。そして、読み込み条件ボタンを指定すると、それに対応した登録内容を呼び出して、複数の設定項目を登録済みの設定値に自動更新されるのであるが、読み込み条件ボタンの指定をユーザ自身が行う点で通常の設定作業と変わりはなく、読み込み条件の設定が容易になったとしても、設定作業自体の効率化が図られた訳ではないという問題があった。
In
このように、従来の画像形成装置では、原稿を読み取って画像形成を行う際にユーザは設定を実行する前に自分の設定によってどのような仕上がりになるのかを確認することはできなかったという問題、近年の画像形成装置の機能は多機能なものとなって来て設定操作自体も複雑になっているという問題、および、所望のように設定したつもりであっても印刷結果は所望の設定と異なることがあるという問題は解決されていなかった。 As described above, in the conventional image forming apparatus, when the image is formed by reading a document, the user cannot confirm what kind of finish is made according to his / her setting before executing the setting. However, the functions of image forming apparatuses in recent years have become multifunctional, and the setting operation itself has become complicated, and even if the setting is made as desired, the print result is the desired setting. The problem of being different was not solved.
本発明は、上記に鑑みてなされたものであって、ユーザによる各種機能の設定作業に先立って原稿データを読み込んで予想仕上がり状態を表示し、表示された画像への接触、および操作者の発する発話を用いて画像処理項目を設定でき、操作者にとっては利便性が高く装置にとっては確実性が高い画像形成装置、画像形成方法、その方法をコンピュータに実行させるプログラム、画像処理装置、および画像処理システムを提供することを目的とする。 The present invention has been made in view of the above, and reads an original data and displays an expected finish state prior to setting of various functions by a user, touches the displayed image, and is issued by an operator. An image forming apparatus, an image forming method, a program for causing a computer to execute the method, an image processing apparatus, and an image processing that can set image processing items using speech and are convenient for an operator and highly reliable for an apparatus The purpose is to provide a system.
また、本発明は、ユーザが画像形成のための設定項目値を入力した場合、設定入力を反映した仕上がり予想画像、および新たな設定メニューを表示して画像処理項目を設定できる操作者にとっては利便性が高く装置にとっては確実性が高い画像形成装置、画像形成方法、その方法をコンピュータに実行させるプログラム、画像処理装置、および画像処理システムを提供することを目的とする。 Further, the present invention is convenient for an operator who can set an image processing item by displaying a predicted finished image reflecting a setting input and a new setting menu when the user inputs a setting item value for image formation. An object of the present invention is to provide an image forming apparatus, an image forming method, a program for causing a computer to execute the method, an image processing apparatus, and an image processing system.
また、本発明は、画像データを入力した場合、その原稿の特性値を検出して予想仕上がり状態および必要な設定項目を表示してユーザによる設定入力を受け付けることにより、操作者にとっては利便性が高く装置にとっては確実性が高い画像形成装置、画像形成方法、その方法をコンピュータに実行させるプログラム、画像処理装置、および画像処理システムを提供することを目的とする。 Further, according to the present invention, when image data is input, the characteristic value of the original is detected, the expected finishing state and necessary setting items are displayed, and the setting input by the user is accepted, so that it is convenient for the operator. An object of the present invention is to provide an image forming apparatus, an image forming method, a program for causing a computer to execute the method, an image processing apparatus, and an image processing system that are highly reliable for the apparatus.
上述した課題を解決し、目的を達成するために、請求項1にかかる発明は、画像データを入力して画像データ処理および印刷仕上げ処理後の予想画像を表示し、操作者からの画像形成の処理項目の設定を受け付ける画像形成装置であって、前記予想画像の予想画像情報を生成する予想画像情報生成手段と、前記予想画像情報生成手段によって生成された予想画像情報に基づいて前記予想画像を表示する表示手段と、前記予想画像を表示する表示手段への、前記操作者の指先およびスタイラスの少なくともいずれかを含む接触物の接触により、前記予想画像に関する空間情報を取得し空間的な設定である空間指示項目を識別する空間項目識別手段と、音声情報を受け付けて受け付けた前記音声情報から言語を介する設定である言語指示項目を識別する言語項目識別手段と、前記空間項目識別手段により識別された空間指示項目および前記言語項目識別手段によって識別された言語指示項目の中から選択して、前記画像形成の処理項目を設定する設定手段と、を備たことを特徴とする。 In order to solve the above-described problems and achieve the object, the invention according to claim 1 inputs image data, displays an expected image after image data processing and print finishing processing, and performs image formation from an operator. An image forming apparatus that accepts setting of a processing item, the predicted image information generating unit that generates predicted image information of the predicted image, and the predicted image based on the predicted image information generated by the predicted image information generating unit. Spatial information related to the predicted image is obtained by contact of a contact object including at least one of the fingertip of the operator and the stylus to the display unit for displaying and the display unit for displaying the predicted image, and the spatial setting is used. A space item identifying means for identifying a certain space instruction item, and a language instruction item that is set via a language from the received sound information. Language item identifying means, and a setting means for setting the image formation processing item by selecting from the space instruction item identified by the space item identifying means and the language instruction item identified by the language item identifying means It is characterized by having.
また、請求項2にかかる発明は、請求項1に記載の画像形成装置において、前記予想画像情報生成手段は、前記設定手段によって設定された前記画像形成の処理項目に基づいて予想画像情報を生成するものであり、前記表示手段は、前記予想画像情報生成手段によって生成された予想画像情報に基づいて前記予想画像を表示するものであることを特徴とする。 According to a second aspect of the present invention, in the image forming apparatus according to the first aspect, the predicted image information generation unit generates the predicted image information based on the image formation processing items set by the setting unit. The display means displays the predicted image based on the predicted image information generated by the predicted image information generating means.
また、請求項3にかかる発明は、請求項1または2に記載の画像形成装置において、前記空間指示項目および前記言語指示項目を関連させて記憶する設定項目記憶手段を、さらに備え、前記設定手段は、前記設定項目記憶手段によって記憶された前記空間指示項目および言語指示項目の少なくともいずれかを参照して、前記画像形成の処理項目を設定するものであることを特徴とする。 According to a third aspect of the present invention, in the image forming apparatus according to the first or second aspect of the present invention, the image forming apparatus further includes a setting item storage unit that stores the space instruction item and the language instruction item in association with each other. Is configured to set the image formation processing item with reference to at least one of the space instruction item and the language instruction item stored by the setting item storage unit.
また、請求項4にかかる発明は、請求項1〜3のいずれか1つに記載の画像形成装置において、前記空間項目識別手段は、前記接触物が前記表示手段の画像に接触する位置、方向、および領域の少なくとも一つを含む空間情報を取得して空間指示項目を識別するものであり、前記言語項目識別手段は、前記操作者の発話による音声を受け付けて言語指示項目を識別するものであり、前記設定手段は、前記空間指示項目および前記言語指示項目の中から選択して前記画像形成の処理項目を設定するものであることを特徴とする。 According to a fourth aspect of the present invention, in the image forming apparatus according to any one of the first to third aspects, the space item identifying unit includes a position and a direction in which the contact object contacts the image of the display unit. , And space information including at least one of the areas is acquired to identify a space instruction item, and the language item identification means is configured to accept a voice produced by the operator and identify a language instruction item. And the setting means is configured to select the space instruction item and the language instruction item and set the image formation processing item.
また、請求項5にかかる発明は、請求項1〜4のいずれか1つに記載の画像形成装置において、前記表示手段は、前記予想画像を表示するタッチパネルを有し、前記空間項目識別手段は、前記タッチパネル上で前記接触物が接触することにより前記空間情報を取得し、前記空間指示項目を識別するものであることを特徴とする。 According to a fifth aspect of the present invention, in the image forming apparatus according to any one of the first to fourth aspects, the display unit includes a touch panel for displaying the predicted image, and the space item identification unit is The spatial information is acquired by the contact of the contact object on the touch panel, and the space instruction item is identified.
また、請求項6にかかる発明は、請求項5に記載の画像形成装置において、前記空間項目識別手段は、前記タッチパネル上の前記接触物が接触する軌跡から前記空間情報を識別するものであることを特徴とする。 According to a sixth aspect of the present invention, in the image forming apparatus according to the fifth aspect, the space item identifying unit identifies the spatial information from a locus of contact of the contact object on the touch panel. It is characterized by.
また、請求項7にかかる発明は、請求項1〜6のいずれか1つに記載の画像形成装置において、前記設定手段は、前記空間指示項目および前記言語指示項目のうちの一方の指示項目を選択した場合、他方の指示項目の候補の数を制限して選択し、選択された前記一方および前記他方の指示項目のうちから前記画像形成の処理項目を設定するものであることを特徴とする。 According to a seventh aspect of the present invention, in the image forming apparatus according to any one of the first to sixth aspects, the setting unit selects one of the space instruction item and the language instruction item. When selected, the number of candidates for the other instruction item is limited and selected, and the image formation processing item is set from the selected one and the other instruction items. .
また、請求項8にかかる発明は、請求項7に記載の画像形成装置において、前記設定手段は、前記一方を前記空間指示項目とし、かつ、前記他方を前記言語指示項目として選択して、前記画像形成の処理項目を設定するものであることを特徴とする。 The invention according to claim 8 is the image forming apparatus according to claim 7, wherein the setting unit selects the one as the space instruction item and the other as the language instruction item, and It is characterized by setting processing items for image formation.
また、請求項9にかかる発明は、請求項7に記載の画像形成装置において、前記設定手段は、前記一方を前記言語指示項目とし、かつ、前記他方を前記空間指示項目として選択して、前記画像形成の処理項目を設定するものであることを特徴とする。 The invention according to claim 9 is the image forming apparatus according to claim 7, wherein the setting unit selects the one as the language instruction item and the other as the space instruction item, and It is characterized by setting processing items for image formation.
また、請求項10にかかる発明は、請求項1〜9のいずれか1つに記載の画像形成装置において、前記空間項目識別手段は、前記空間指示項目に対する確実度の情報である空間確実度を識別し、前記言語項目識別手段は、前記言語指示項目に対する確実度の情報である言語確実度を識別し、前記設定手段は、識別された前記空間確実度および言語確実度に基づいて、前記画像形成の処理項目を設定するものであることを特徴とする。 According to a tenth aspect of the present invention, in the image forming apparatus according to any one of the first to ninth aspects, the space item identifying unit has a space certainty that is information of certainty with respect to the space indicating item. The language item identifying means identifies a language certainty that is information of certainty with respect to the language instruction item, and the setting means determines the image based on the identified spatial certainty and language certainty. It is characterized in that a processing item for formation is set.
また、請求項11にかかる発明は、請求項10に記載の画像形成装置において、前記設定手段は、前記空間指示項目と前記言語指示項目との関連度の情報である項目関連度を決定するものであり、前記設定手段は、前記空間指示項目、言語指示項目、および決定された前記項目関連度に基づいて前記画像形成の処理項目を設定するものであることを特徴とする。 According to an eleventh aspect of the present invention, in the image forming apparatus according to the tenth aspect, the setting unit determines an item relevance level that is information on a relevance level between the space instruction item and the language instruction item. The setting means sets the image formation processing item based on the space instruction item, the language instruction item, and the determined item relevance.
また、請求項12にかかる発明は、請求項11に記載の画像形成装置において、前記設定手段は、前記空間確実度、言語確実度、および決定された前記項目関連度に対してそれぞれ重みを付けた重み付け加算に従って前記処理項目を設定するものであることを特徴とする。 According to a twelfth aspect of the present invention, in the image forming apparatus according to the eleventh aspect, the setting unit assigns weights to the spatial certainty, language certainty, and the determined item relevance. The processing items are set according to the weighted addition.
また、請求項13にかかる発明は、請求項1〜12のいずれか1つに記載の画像形成装置において、前記入力した画像データを解析して原稿特性値を抽出する画像解析手段をさらに備え、前記予想画像情報生成手段は、前記画像解析手段によって抽出された原稿特性値に基づいて前記予想画像情報を生成するものであることを特徴とする。
The invention according to
また、請求項14にかかる発明は、画像データを入力して画像データ処理および印刷仕上げ処理後の予想画像を表示し、操作者からの画像形成の処理項目の設定を受け付ける画像形成方法であって、前記予想画像の予想画像情報を生成する予想画像情報生成工程と、前記予想画像情報生成工程において生成された予想画像情報に基づいて前記予想画像を表示する表示工程と、前記表示工程において表示された予想画像に対して、前記操作者の指先およびスタイラスの少なくともいずれかを含む接触物の接触により前記予想画像に関する空間情報を取得して、空間的な設定である空間指示項目を識別する空間項目識別工程と、音声情報を受け付けて受け付けた前記音声情報から言語を介する設定である言語指示項目を識別する言語項目識別工程と、前記空間項目識別工程において識別された空間指示項目および前記言語項目識別工程において識別された言語指示項目の中から選択して、前記画像形成の処理項目を設定する設定工程と、を含むことを特徴とする。 The invention according to claim 14 is an image forming method for inputting image data, displaying an expected image after image data processing and print finishing processing, and receiving setting of image forming processing items from an operator. A predicted image information generating step for generating predicted image information of the predicted image; a display step for displaying the predicted image based on the predicted image information generated in the predicted image information generating step; and a display step for displaying the predicted image. A spatial item for identifying a spatial indication item which is a spatial setting by acquiring spatial information regarding the predicted image by contact of a contact object including at least one of the fingertip and stylus of the operator with respect to the predicted image A language item identifying step for identifying a language instruction item which is a setting via language from the voice information received and received voice information And a setting step for setting the processing item for image formation by selecting from the space instruction item identified in the space item identification step and the language instruction item identified in the language item identification step. Features.
また、請求項15にかかる発明は、請求項14に記載の画像形成方法において、前記予想画像情報生成工程は、前記設定工程において設定された前記画像形成の処理項目に基づいて予想画像情報を生成するものであり、前記表示工程は、前記予想画像情報生成工程において生成された予想画像情報に基づいて前記予想画像を表示するものであることを特徴とする。 According to a fifteenth aspect of the present invention, in the image forming method according to the fourteenth aspect, the predicted image information generation step generates predicted image information based on the image formation processing items set in the setting step. The display step displays the predicted image based on the predicted image information generated in the predicted image information generation step.
また、請求項16にかかる発明は、請求項14または15に記載の画像形成方法において、前記空間指示項目および前記言語指示項目を関連させて記憶する設定項目記憶工程を、さらに含み、前記設定工程は、前記設定項目記憶工程において記憶された前記空間指示項目および言語指示項目の少なくともいずれかを参照して、前記画像形成の処理項目を設定するものであることを特徴とする。 The invention according to claim 16 further includes a setting item storing step of storing the space instruction item and the language instruction item in association with each other in the image forming method according to claim 14, wherein the setting step Is configured to set the image formation processing item with reference to at least one of the space instruction item and the language instruction item stored in the setting item storage step.
また、請求項17にかかる発明は、請求項14〜16のいずれか1つに記載の画像形成方法において、前記空間項目識別工程は、前記接触物が前記表示工程による画像に接触する位置、方向、および領域の少なくとも一つを含む空間情報を取得して空間指示項目を識別するものであり、前記言語項目識別工程は、前記操作者の発話による音声を受け付けて言語指示項目を識別するものであり、前記設定工程は、前記空間指示項目および前記言語指示項目の中から選択して前記画像形成の処理項目を設定するものであることを特徴とする。
The invention according to
また、請求項18にかかる発明は、請求項14〜17のいずれか1つに記載の画像形成方法において、前記設定工程は、前記空間指示項目および前記言語指示項目のうちの一方の指示項目を選択した場合、他方の指示項目の候補の数を制限して選択し、選択された前記一方および前記他方の指示項目のうちから前記画像形成の処理項目を設定するものであることを特徴とする。
The invention according to
また、請求項19にかかる発明は、請求項18に記載の画像形成方法において、前記設定工程は、前記一方を前記空間指示項目とし、かつ、前記他方を前記言語指示項目として前記処理項目の候補を選択して、前記画像形成の処理項目を設定するものであることを特徴とする。
The invention according to
また、請求項20にかかる発明は、請求項18に記載の画像形成方法において、前記設定工程は、前記一方を前記言語指示項目とし、かつ、前記他方を前記空間指示項目として前記処理項目の候補を選択して、前記画像形成の処理項目を設定するものであることを特徴とする。
The invention according to
また、請求項21にかかる発明は、請求項14〜20のいずれか1つに記載の画像形成方法において、前記空間項目識別工程は、前記空間指示項目に対する確実度の情報である空間確実度を識別し、前記言語項目識別工程は、前記言語指示項目に対する確実度の情報である言語確実度を識別し、前記設定工程は、識別された前記空間確実度および言語確実度に基づいて、前記画像形成の処理項目を設定するものであることを特徴とする。 The invention according to claim 21 is the image forming method according to any one of claims 14 to 20, wherein the space item identifying step sets a space certainty that is information of certainty for the space indicating item. Identifying, the language item identifying step identifies language certainty that is information of certainty for the language instruction item, and the setting step is based on the identified spatial certainty and language certainty. It is characterized in that a processing item for formation is set.
また、請求項22にかかる発明は、請求項21に記載の画像形成方法において、前記設定工程は、前記空間指示項目と前記言語指示項目との関連度の情報である項目関連度を決定するものであり、前記設定工程は、前記空間指示項目、言語指示項目、および決定された前記項目関連度に基づいて前記画像形成の処理項目を設定するものであることを特徴とする。 According to a twenty-second aspect of the present invention, in the image forming method according to the twenty-first aspect, the setting step determines an item relevance level that is information on a relevance level between the space instruction item and the language instruction item. And the setting step sets the image formation processing item based on the space instruction item, the language instruction item, and the determined item relevance.
また、請求項23にかかる発明は、請求項22に記載の画像形成方法において、前記設定工程は、前記空間確実度、言語確実度、および決定された前記項目関連度に対してそれぞれ重みを付けた重み付け加算に従って前記処理項目を設定するものであることを特徴とする。
The invention according to
また、請求項24にかかる発明は、請求項14〜23のいずれか1つに記載の画像形成方法において、前記入力した画像データを解析して原稿特性値を抽出する画像解析工程をさらに含み、前記予想画像情報生成工程は、前記画像解析工程において抽出された原稿特性値に基づいて前記予想画像情報を生成するものであることを特徴とする。 The invention according to claim 24 further includes an image analysis step of analyzing the input image data and extracting a document characteristic value in the image forming method according to any one of claims 14 to 23, In the predicted image information generation step, the predicted image information is generated based on the document characteristic value extracted in the image analysis step.
また、請求項25にかかる発明は、プログラムであって、請求項14〜24のいずれか1つに記載の画像形成方法をコンピュータに実行させることを特徴とする。 The invention according to claim 25 is a program, characterized by causing a computer to execute the image forming method according to any one of claims 14-24.
また、請求項26にかかる発明は、画像データを入力して画像データ処理および印刷仕上げ処理後の予想画像を表示し、操作者からの画像形成の処理項目の設定を受け付ける画像形成装置における画像処理装置であって、前記予想画像の予想画像情報を生成する予想画像情報生成手段と、前記予想画像情報生成手段によって生成された予想画像情報に基づいて前記予想画像を表示する表示手段と、前記予想画像を表示する表示手段への、前記操作者の指先およびスタイラスの少なくともいずれかを含む接触物の接触により、前記予想画像に関する空間情報を取得し空間的な設定である空間指示項目を識別する空間項目識別手段と、音声情報を受け付けて受け付けた前記音声情報から言語を介する設定である言語指示項目を識別する言語項目識別手段と、前記空間項目識別手段により識別された空間指示項目および前記言語項目識別手段によって識別された言語指示項目の中から選択して、前記画像形成の処理項目を設定する設定手段と、を備たことを特徴とする。 According to a twenty-sixth aspect of the present invention, image processing in an image forming apparatus that inputs image data, displays an expected image after image data processing and print finishing processing, and accepts setting of processing items for image formation from an operator. A predicted image information generating unit that generates predicted image information of the predicted image; a display unit that displays the predicted image based on the predicted image information generated by the predicted image information generating unit; A space for acquiring spatial information on the predicted image and identifying a spatial indication item which is a spatial setting by contact of a contact object including at least one of the fingertip of the operator and a stylus with a display unit that displays an image A language item identifier for identifying a language instruction item that is set via language from the voice information received and received by the item identification means; And a setting means for setting the image formation processing item by selecting from the space instruction item identified by the space item identification means and the language instruction item identified by the language item identification means. It is characterized by that.
また、請求項27にかかる発明は、請求項26に記載の画像処理装置において、前記予想画像情報生成手段は、前記設定手段によって設定された前記画像形成の処理項目に基づいて予想画像情報を生成するものであり、前記表示手段は、前記予想画像情報生成手段によって生成された予想画像情報に基づいて前記予想画像を表示するものであることを特徴とする。 According to a twenty-seventh aspect of the present invention, in the image processing apparatus according to the twenty-sixth aspect, the predicted image information generating unit generates predicted image information based on the image formation processing items set by the setting unit. The display means displays the predicted image based on the predicted image information generated by the predicted image information generating means.
また、請求項28にかかる発明は、請求項26または27に記載の画像処理装置において、前記空間指示項目および前記言語指示項目を関連させて記憶する設定項目記憶手段を、さらに備え、前記設定手段は、前記設定項目記憶手段によって記憶された前記空間指示項目および言語指示項目の少なくともいずれかを参照して、前記画像形成の処理項目を設定するものであることを特徴とする。 The invention according to claim 28 is the image processing apparatus according to claim 26 or 27, further comprising setting item storage means for storing the space instruction item and the language instruction item in association with each other, wherein the setting means Is configured to set the image formation processing item with reference to at least one of the space instruction item and the language instruction item stored by the setting item storage unit.
また、請求項29にかかる発明は、ネットワーク接続され、画像データを入力して画像データ処理および印刷仕上げ処理後の予想画像を表示し、操作者からの画像形成の処理項目の設定を受け付ける画像処理システムであって、それぞれのうち2つ以上が前記ネットワーク接続され、前記予想画像の予想画像情報を生成する予想画像情報生成手段と、前記予想画像情報生成手段によって生成された予想画像情報に基づいて前記予想画像を表示する表示手段と、前記予想画像を表示する表示手段への、前記操作者の指先およびスタイラスの少なくともいずれかを含む接触物の接触により、前記予想画像に関する空間情報を取得し空間的な設定である空間指示項目を識別する空間項目識別手段と、音声情報を受け付けて受け付けた前記音声情報から言語を介する設定である言語指示項目を識別する言語項目識別手段と、前記空間項目識別手段により識別された空間指示項目および前記言語項目識別手段によって識別された言語指示項目の中から選択して、前記画像形成の処理項目を設定する設定手段と、を備えたことを特徴とする。 According to the twenty-ninth aspect of the present invention, there is provided an image processing which is connected to a network, receives image data, displays an expected image after image data processing and print finishing processing, and accepts setting of image forming processing items from an operator. Two or more of each of which are connected to the network, based on predicted image information generating means for generating predicted image information of the predicted image, and predicted image information generated by the predicted image information generating means Spatial information related to the predicted image is obtained by contact of a contact object including at least one of the fingertip of the operator and a stylus with the display unit that displays the predicted image and the display unit that displays the predicted image. The spatial item identification means for identifying the spatial instruction item which is a typical setting, and the voice information received and received by the voice information Language item identifying means for identifying a language instruction item which is a setting via language, and selecting from among the space instruction item identified by the space item identifying means and the language instruction item identified by the language item identifying means, And setting means for setting the processing items for the image formation.
また、請求項30にかかる発明は、請求項29に記載の画像処理システムにおいて、前記予想画像情報生成手段は、前記設定手段によって設定された前記画像形成の処理項目に基づいて予想画像情報を生成するものであり、前記表示手段は、前記予想画像情報生成手段によって生成された予想画像情報に基づいて前記予想画像を表示するものであることを特徴とする。 According to a thirty-third aspect of the present invention, in the image processing system according to the twenty-ninth aspect, the predicted image information generating unit generates predicted image information based on the image formation processing items set by the setting unit. The display means displays the predicted image based on the predicted image information generated by the predicted image information generating means.
また、請求項31にかかる発明は、請求項29または30に記載の画像処理システムにおいて、前記ネットワークに接続されて、前記空間指示項目および前記言語指示項目を関連させて記憶する設定項目記憶手段を、さらに備え、前記設定手段は、前記設定項目記憶手段によって記憶された前記空間指示項目および言語指示項目の少なくともいずれかを参照して、前記画像形成の処理項目を設定するものであることを特徴とする。 The invention according to claim 31 is the image processing system according to claim 29 or 30, wherein the setting item storage means is connected to the network and stores the space instruction item and the language instruction item in association with each other. The setting unit is configured to set the image formation processing item with reference to at least one of the space instruction item and the language instruction item stored by the setting item storage unit. And
請求項1にかかる画像形成装置は、予想画像の予想画像情報を生成し、予想画像情報に基づいて予想画像を表示し、操作者の指先およびスタイラスの少なくともいずれかを含む接触物の接触により、予想画像に関する空間情報を取得し空間的な設定である空間指示項目を識別し、音声情報を受け付けて言語を介する設定である言語指示項目を識別し、空間指示項目および言語指示項目の中から選択して画像形成の処理項目を設定する。この構成によって、ユーザによる各種機能の設定作業に先立って画像データを入力して予想仕上がり状態を表示し、表示された画像への接触および発話によって直感的に画像形成の処理項目を設定できるので、操作者にとっては利便性が高く装置にとっては確実性が高い画像形成装置を提供することができるという効果を奏する。
The image forming apparatus according to
また、請求項2にかかる画像形成装置は、設定された画像形成の処理項目に基づいて予想画像情報を生成して、生成された予想画像情報に基づいて予想画像を表示する。この構成によって、処理項目を設定した後の予想仕上がり状態を表示して、さらに表示された画像への接触および発話によって直感的に画像形成の処理項目を設定できるので、操作者にとっては利便性が高く装置にとっては確実性が高い画像形成装置を提供することができるという効果を奏する。 According to a second aspect of the present invention, the image forming apparatus generates predicted image information based on the set image formation processing item, and displays the predicted image based on the generated predicted image information. With this configuration, it is possible to display the expected finished state after setting the processing items, and further to set the processing items for image formation intuitively by touching and speaking the displayed image, which is convenient for the operator. An image forming apparatus that is high and highly reliable can be provided.
また、請求項3にかかる画像形成装置は、空間指示項目および言語指示項目を関連させて記憶し、記憶された空間指示項目および言語指示項目の少なくともいずれかを参照して、画像形成の処理項目を設定する。この構成によって、ユーザによる各種機能の設定作業に先立って画像データを入力して予想仕上がり状態を表示し、表示された画像への接触および発話によって直感的に関連性のある画像形成の処理項目を設定できるので、操作者にとっては利便性が高く装置にとっては確実性が高い画像形成装置を提供することができるという効果を奏する。 The image forming apparatus according to claim 3 stores the space instruction item and the language instruction item in association with each other, and refers to at least one of the stored space instruction item and the language instruction item to perform an image formation processing item. Set. This configuration allows the user to input image data and display the expected finished state prior to setting the various functions by the user, and intuitively related processing items for image formation by touching and speaking the displayed image. Therefore, it is possible to provide an image forming apparatus that is convenient for the operator and highly reliable for the apparatus.
また、請求項4にかかる画像形成装置は、接触物が表示手段の画像に接触する位置、方向、および領域の少なくとも一つを含む空間情報を取得して空間指示項目を識別し、操作者の発話による音声を受け付けて言語指示項目を識別し、空間指示項目および言語指示項目の中から選択して画像形成の処理項目を設定する。この構成によって、ユーザによる各種機能の設定作業に先立って画像データを入力して予想仕上がり状態を表示し、表示された画像へ接触物により軌跡を描くことおよび発話によって直感的に画像形成の処理項目を設定できるので、操作者にとっては利便性が高く装置にとっては確実性が高い画像形成装置を提供することができるという効果を奏する。 According to a fourth aspect of the present invention, there is provided an image forming apparatus that acquires spatial information including at least one of a position, a direction, and a region where a contact object contacts an image of a display unit, identifies a spatial instruction item, and A speech instruction is received to identify a language instruction item, and a processing item for image formation is set by selecting from the space instruction item and the language instruction item. With this configuration, prior to setting various functions by the user, image data is input to display the expected finished state, and a trace is drawn on the displayed image with a contact object, and processing items for image formation intuitively by utterance Therefore, it is possible to provide an image forming apparatus that is convenient for the operator and highly reliable for the apparatus.
また、請求項5にかかる画像形成装置は、予想画像を表示するタッチパネルを有し、タッチパネル上で接触物が接触することにより空間情報を取得し、空間指示項目を識別する。この構成によって、ユーザによる各種機能の設定作業に先立って画像データを入力して予想仕上がり状態をタッチパネルに表示し、表示されたタッチパネル上の画像への接触および発話によって直感的に画像形成の処理項目を設定できるので、操作者にとっては利便性が高く装置にとっては確実性が高い画像形成装置を提供することができるという効果を奏する。 According to a fifth aspect of the present invention, the image forming apparatus includes a touch panel that displays an expected image, acquires spatial information when a contact object comes in contact with the touch panel, and identifies a spatial instruction item. This configuration allows the user to input image data prior to setting various functions by the user and display the expected finished state on the touch panel, and intuitively form image processing items by touching and speaking the image on the displayed touch panel. Therefore, it is possible to provide an image forming apparatus that is convenient for the operator and highly reliable for the apparatus.
また、請求項6にかかる画像形成装置は、タッチパネル上の接触物が接触する軌跡から空間情報を識別する。この構成によって、ユーザによる各種機能の設定作業に先立って画像データを入力して予想仕上がり状態をタッチパネルに表示し、表示されたタッチパネル上の画像に接触して描く軌跡および発話によって直感的に画像形成の処理項目を設定できるので、操作者にとっては利便性が高く装置にとっては確実性が高い画像形成装置を提供することができるという効果を奏する。 According to a sixth aspect of the present invention, the image forming apparatus identifies spatial information from the locus of contact with the contact object on the touch panel. This configuration allows the user to input image data and display the expected finished state on the touch panel prior to setting the various functions by the user, and intuitively form an image by touching and drawing the image on the displayed touch panel. Therefore, it is possible to provide an image forming apparatus that is convenient for the operator and highly reliable for the apparatus.
また、請求項7にかかる画像形成装置は、空間指示項目および言語指示項目のうちの一方の指示項目を選択した場合、他方の指示項目の候補の数を制限して選択し、選択された一方および他方の指示項目のうちから画像形成の処理項目を設定する。この構成によって、ユーザによる各種機能の設定作業に先立って画像データを入力して予想仕上がり状態を表示し、表示された画像への接触および発話の一方によって指示項目を識別し、次に、他方の指示項目を絞り込んで画像形成の処理項目を設定できるので、操作者にとっては利便性が高く装置にとっては確実性が高い画像形成装置を提供することができるという効果を奏する。 In the image forming apparatus according to claim 7, when one instruction item is selected from the space instruction item and the language instruction item, the number of candidates for the other instruction item is limited and selected, and the selected one item is selected. The image forming process item is set from the other instruction items. With this configuration, prior to setting the various functions by the user, the image data is input to display the expected finished state, and the instruction item is identified by one of contact and utterance to the displayed image, and then the other Since the processing items for image formation can be set by narrowing down the instruction items, it is possible to provide an image forming apparatus that is convenient for the operator and highly reliable for the apparatus.
また、請求項8にかかる画像形成装置は、一方を空間指示項目とし、かつ、他方を言語指示項目として選択して、画像形成の処理項目を設定する。この構成によって、ユーザによる各種機能の設定作業に先立って画像データを入力して予想仕上がり状態を表示し、表示された画像への接触によって空間指示項目を識別し、次に言語指示項目を絞り込んで画像形成の処理項目を設定できるので、操作者にとっては利便性が高く装置にとっては確実性が高い画像形成装置を提供することができるという効果を奏する。 The image forming apparatus according to the eighth aspect selects one as a space instruction item and the other as a language instruction item, and sets an image forming process item. With this configuration, prior to setting the various functions by the user, the image data is input to display the expected finished state, the space indication items are identified by touching the displayed image, and then the language indication items are narrowed down. Since the processing items for image formation can be set, it is possible to provide an image forming apparatus that is convenient for the operator and highly reliable for the apparatus.
また、請求項9にかかる画像形成装置は、一方を言語指示項目とし、かつ、他方を空間指示項目として選択して、画像形成の処理項目を設定する。この構成によって、ユーザによる各種機能の設定作業に先立って画像データを入力して予想仕上がり状態を表示し、音声により言語指示項目を識別し、次に、表示された画像への接触によって絞り込んで空間指示項目を識別し、画像形成の処理項目を設定できるので、操作者にとっては利便性が高く装置にとっては確実性が高い画像形成装置を提供することができるという効果を奏する。 In the image forming apparatus according to the ninth aspect, one is set as a language instruction item and the other is selected as a space instruction item, and an image forming process item is set. With this configuration, prior to setting the various functions by the user, the image data is input to display the expected finished state, the language instruction items are identified by voice, and then the space is narrowed down by touching the displayed image. Since the instruction items can be identified and the image formation processing items can be set, it is possible to provide an image forming apparatus that is convenient for the operator and highly reliable for the apparatus.
また、請求項10にかかる画像形成装置は、空間指示項目に対する確実度の情報である空間確実度を識別し、言語指示項目に対する確実度の情報である言語確実度を識別し、決定された空間確実度および言語確実度とに基づいて、画像形成の処理項目を設定するものであることを特徴とする。この構成によって、ユーザによる各種機能の設定作業に先立って画像データを入力して予想仕上がり状態を表示し、表示された画像への接触および発話により直感的に画像形成の処理項目をそれぞれに確実度を加味して設定できるので、操作者にとっては利便性が高く装置にとっては確実性が高い画像形成装置を提供することができるという効果を奏する。 According to a tenth aspect of the present invention, the image forming apparatus identifies a spatial certainty that is information of certainty for the space instruction item, identifies a language certainty that is information of certainty for the language instruction item, and determines the determined space. An image forming process item is set based on the certainty level and the language certainty level. With this configuration, the user can input image data and display the expected finished state prior to setting the various functions by the user, and each image formation processing item can be intuitively determined by touching and speaking the displayed image. Therefore, it is possible to provide an image forming apparatus that is convenient for the operator and highly reliable for the apparatus.
また、請求項11にかかる画像形成装置は、空間指示項目と言語指示項目との関連度の情報である項目関連度を決定し、空間指示項目、言語指示項目、および決定された項目関連度に基づいて画像形成の処理項目を設定する。この構成によって、ユーザによる各種機能の設定作業に先立って画像データを入力して予想仕上がり状態を表示し、表示された画像への接触および発話により直感的に画像形成の処理項目をそれぞれの項目の関連性を表す関連度を加味して設定できるので、操作者にとっては利便性が高く装置にとっては確実性が高い画像形成装置を提供することができるという効果を奏する。
The image forming apparatus according to
また、請求項12にかかる画像形成装置は、空間確実度、言語確実度、および決定された項目関連度に対してそれぞれ重みを付けた重み付け加算に従って処理項目を設定する。この構成によって、ユーザによる各種機能の設定作業に先立って画像データを入力して予想仕上がり状態を表示し、表示された画像への接触および発話により直感的に画像形成の処理項目をそれぞれの項目の確実度と関連性を表す関連度を加味して設定できるので、操作者にとっては利便性が高く装置にとっては確実性が高い画像形成装置を提供することができるという効果を奏する。 The image forming apparatus according to a twelfth aspect sets processing items according to a weighted addition in which the space certainty, the language certainty, and the determined item relevance are weighted. With this configuration, prior to setting various functions by the user, image data is input to display an expected finished state, and processing items for image formation are intuitively determined by touching and speaking the displayed image. Since it can be set in consideration of the degree of certainty and the degree of relation representing the degree of relevance, it is possible to provide an image forming apparatus that is convenient for the operator and highly reliable for the apparatus.
また、請求項13にかかる画像形成装置は、入力した画像データを解析して原稿特性値を抽出し、抽出された原稿特性値に基づいて予想画像情報を生成する。この構成によって、ユーザによる各種機能の設定作業に先立って画像データを入力して原稿特性値を読み取って予想仕上がり状態を表示し、原稿特性を繁栄して表示された画像への接触および発話によって直感的に画像形成の処理項目を設定できるので、操作者にとっては利便性が高く装置にとっては確実性が高い画像形成装置を提供することができるという効果を奏する。 An image forming apparatus according to a thirteenth aspect analyzes input image data to extract a document characteristic value, and generates predicted image information based on the extracted document characteristic value. With this configuration, prior to setting the various functions by the user, the image data is input, the original characteristic value is read to display the expected finished state, and the original characteristic is prosperous. In addition, since the image formation processing items can be set, it is possible to provide an image forming apparatus that is convenient for the operator and highly reliable for the apparatus.
また、請求項14にかかる画像形成方法は、予想画像の予想画像情報を生成し、予想画像情報に基づいて予想画像を表示し、操作者の指先およびスタイラスの少なくともいずれかを含む接触物の接触により、予想画像に関する空間情報を取得し空間的な設定である空間指示項目を識別し、音声情報を受け付けて言語を介する設定である言語指示項目を識別し、空間指示項目および言語指示項目の中から選択して画像形成の処理項目を設定する。この構成によって、ユーザによる各種機能の設定作業に先立って画像データを入力して予想仕上がり状態を表示し、表示された画像への接触および発話によって直感的に画像形成の処理項目を設定できるので、操作者にとっては利便性が高く装置にとっては確実性が高い画像形成方法を提供することができるという効果を奏する。 The image forming method according to claim 14 generates predicted image information of the predicted image, displays the predicted image based on the predicted image information, and contacts a contact object including at least one of an operator's fingertip and stylus. To obtain the spatial information related to the predicted image, identify the spatial instruction item that is a spatial setting, identify the language instruction item that receives the voice information and set the language, and identify the spatial instruction item and the language instruction item. To select an image forming process item. With this configuration, it is possible to input image data prior to setting various functions by the user and display an expected finish state, and to intuitively set processing items for image formation by touching and speaking the displayed image. There is an effect that it is possible to provide an image forming method that is convenient for the operator and highly reliable for the apparatus.
また、請求項15にかかる画像形成方法は、設定された画像形成の処理項目に基づいて予想画像情報を生成して、生成された予想画像情報に基づいて予想画像を表示する。この構成によって、処理項目を設定した後の予想仕上がり状態を表示して、さらに表示された画像への接触および発話によって直感的に画像形成の処理項目を設定できるので、操作者にとっては利便性が高く装置にとっては確実性が高い画像形成方法を提供することができるという効果を奏する。 In the image forming method according to the fifteenth aspect, the predicted image information is generated based on the set image formation processing item, and the predicted image is displayed based on the generated predicted image information. With this configuration, it is possible to display the expected finished state after setting the processing items, and further to set the processing items for image formation intuitively by touching and speaking the displayed image, which is convenient for the operator. The apparatus can provide an image forming method that is high and highly reliable for the apparatus.
また、請求項16にかかる画像形成方法は、空間指示項目および言語指示項目を関連させて記憶し、記憶された空間指示項目および言語指示項目の少なくともいずれかを参照して、画像形成の処理項目を設定する。この構成によって、ユーザによる各種機能の設定作業に先立って画像データを入力して予想仕上がり状態を表示し、表示された画像への接触および発話によって直感的に画像形成の処理項目を設定できるので、操作者にとっては利便性が高く装置にとっては確実性が高い画像形成方法を提供することができるという効果を奏する。 The image forming method according to claim 16 stores the space instruction item and the language instruction item in association with each other, and refers to at least one of the stored space instruction item and the language instruction item to perform an image formation processing item. Set. With this configuration, it is possible to input image data prior to setting various functions by the user and display an expected finish state, and to intuitively set processing items for image formation by touching and speaking the displayed image. There is an effect that it is possible to provide an image forming method that is convenient for the operator and highly reliable for the apparatus.
また、請求項17にかかる画像形成方法は、接触物が表示手段の画像に接触する位置、方向、および領域の少なくとも一つを含む空間情報を取得して空間指示項目を識別し、操作者の発話による音声を受け付けて言語指示項目を識別し、空間指示項目および言語指示項目の中から選択して画像形成の処理項目を設定する。この構成によって、ユーザによる各種機能の設定作業に先立って画像データを入力して予想仕上がり状態を表示し、表示された画像へ接触物により軌跡を描くことおよび発話によって直感的に画像形成の処理項目を設定できるので、操作者にとっては利便性が高く装置にとっては確実性が高い画像形成方法を提供することができるという効果を奏する。 According to a seventeenth aspect of the present invention, there is provided an image forming method for acquiring spatial information including at least one of a position, a direction, and a region where a contact object contacts an image of a display unit, identifying a spatial instruction item, and A speech instruction is received to identify a language instruction item, and a processing item for image formation is set by selecting from the space instruction item and the language instruction item. With this configuration, prior to setting various functions by the user, image data is input to display the expected finished state, and a trace is drawn on the displayed image with a contact object, and processing items for image formation intuitively by utterance Therefore, it is possible to provide an image forming method that is convenient for the operator and highly reliable for the apparatus.
また、請求項18にかかる画像形成方法は、空間指示項目および言語指示項目のうちの一方の指示項目を選択した場合、他方の指示項目の候補の数を制限して選択し、選択された一方および他方の指示項目のうちから画像形成の処理項目を設定する。この構成によって、ユーザによる各種機能の設定作業に先立って画像データを入力して予想仕上がり状態を表示し、表示された画像への接触および発話の一方によって指示項目を識別し、次に、他方の指示項目を絞り込んで画像形成の処理項目を設定できるので、操作者にとっては利便性が高く装置にとっては確実性が高い画像形成方法を提供することができるという効果を奏する。
In the image forming method according to
また、請求項19にかかる画像形成方法は、一方を空間指示項目とし、かつ、他方を言語指示項目として選択して、画像形成の処理項目を設定する。この構成によって、ユーザによる各種機能の設定作業に先立って画像データを入力して予想仕上がり状態を表示し、表示された画像への接触によって空間指示項目を識別し、次に言語指示項目を絞り込んで画像形成の処理項目を設定できるので、操作者にとっては利便性が高く装置にとっては確実性が高い画像形成方法を提供することができるという効果を奏する。 In the image forming method according to the nineteenth aspect, one is selected as a space instruction item and the other is selected as a language instruction item, and an image forming process item is set. With this configuration, prior to setting the various functions by the user, the image data is input to display the expected finished state, the space indication items are identified by touching the displayed image, and then the language indication items are narrowed down. Since the processing items for image formation can be set, it is possible to provide an image forming method that is convenient for the operator and highly reliable for the apparatus.
また、請求項20にかかる画像形成方法は、一方を言語指示項目とし、かつ、他方を空間指示項目として選択して、画像形成の処理項目を設定する。この構成によって、ユーザによる各種機能の設定作業に先立って画像データを入力して予想仕上がり状態を表示し、音声により言語指示項目を識別し、次に、表示された画像への接触によって絞り込んで空間指示項目を識別し、画像形成の処理項目を設定できるので、操作者にとっては利便性が高く装置にとっては確実性が高い画像形成方法を提供することができるという効果を奏する。 In the image forming method according to the twentieth aspect, an image forming process item is set by selecting one as a language instruction item and the other as a space instruction item. With this configuration, prior to setting the various functions by the user, the image data is input to display the expected finished state, the language instruction items are identified by voice, and then the space is narrowed down by touching the displayed image. Since the instruction item can be identified and the image formation processing item can be set, it is possible to provide an image forming method that is convenient for the operator and highly reliable for the apparatus.
また、請求項21にかかる画像形成方法は、空間指示項目に対する確実度の情報である空間確実度を識別し、言語指示項目に対する確実度の情報である言語確実度を識別し、決定された空間確実度および言語確実度とに基づいて、画像形成の処理項目を設定するものであることを特徴とする。この構成によって、ユーザによる各種機能の設定作業に先立って画像データを入力して予想仕上がり状態を表示し、表示された画像への接触および発話により直感的に画像形成の処理項目をそれぞれに確実度を加味して設定できるので、操作者にとっては利便性が高く装置にとっては確実性が高い画像形成方法を提供することができるという効果を奏する。 The image forming method according to claim 21 identifies a spatial certainty that is information of certainty for the space instruction item, identifies a language certainty that is information of certainty for the language instruction item, and determines the determined space. An image forming process item is set based on the certainty level and the language certainty level. With this configuration, the user can input image data and display the expected finished state prior to setting the various functions by the user, and each image formation processing item can be intuitively determined by touching and speaking the displayed image. Therefore, it is possible to provide an image forming method that is convenient for the operator and highly reliable for the apparatus.
また、請求項22にかかる画像形成方法は、空間指示項目と言語指示項目との関連度の情報である項目関連度を決定し、空間指示項目、言語指示項目、および決定された項目関連度に基づいて画像形成の処理項目を設定する。この構成によって、ユーザによる各種機能の設定作業に先立って画像データを入力して予想仕上がり状態を表示し、表示された画像への接触および発話により直感的に画像形成の処理項目をそれぞれの項目の関連性を表す関連度を加味して設定できるので、操作者にとっては利便性が高く装置にとっては確実性が高い画像形成方法を提供することができるという効果を奏する。 An image forming method according to a twenty-second aspect determines an item relevance level, which is information on a degree of association between a space instruction item and a language instruction item, and determines the space instruction item, the language instruction item, and the determined item relevance degree. Based on this, processing items for image formation are set. With this configuration, prior to setting various functions by the user, image data is input to display an expected finished state, and processing items for image formation are intuitively determined by touching and speaking the displayed image. Since it can be set in consideration of the relevance level representing relevance, it is possible to provide an image forming method that is convenient for the operator and highly reliable for the apparatus.
また、請求項23にかかる画像形成方法は、空間確実度、言語確実度、および決定された項目関連度に対してそれぞれ重みを付けた重み付け加算に従って処理項目を設定する。この構成によって、ユーザによる各種機能の設定作業に先立って画像データを入力して予想仕上がり状態を表示し、表示された画像への接触および発話により直感的に画像形成の処理項目をそれぞれの項目の確実度と関連性を表す関連度を加味して設定できるので、操作者にとっては利便性が高く装置にとっては確実性が高い画像形成方法を提供することができるという効果を奏する。 In the image forming method according to the twenty-third aspect, the processing items are set in accordance with weighted addition in which the space certainty, the language certainty, and the determined item relevance are weighted. With this configuration, prior to setting various functions by the user, image data is input to display an expected finished state, and processing items for image formation are intuitively determined by touching and speaking the displayed image. Since it can be set in consideration of the degree of certainty and the degree of relation representing the relation, it is possible to provide an image forming method that is convenient for the operator and highly reliable for the apparatus.
また、請求項24にかかる画像形成方法は、入力した画像データを解析して原稿特性値を抽出し、抽出された原稿特性値に基づいて予想画像情報を生成する。この構成によって、ユーザによる各種機能の設定作業に先立って画像データを入力して原稿特性値を読み取って予想仕上がり状態を表示し、原稿特性を反映して表示された画像への接触および発話によって直感的に画像形成の処理項目を設定できるので、操作者にとっては利便性が高く装置にとっては確実性が高い画像形成方法を提供することができるという効果を奏する。 According to a twenty-fourth aspect of the present invention, the input image data is analyzed to extract a document characteristic value, and predicted image information is generated based on the extracted document characteristic value. With this configuration, prior to setting the various functions by the user, the image data is input, the original characteristic value is read to display the expected finished state, and the intuition is obtained by touching and speaking the displayed image reflecting the original characteristic. In addition, since the image formation processing items can be set, it is possible to provide an image forming method that is convenient for the operator and highly reliable for the apparatus.
また、請求項25にかかるプログラムは、請求項14〜24のいずれか1つに記載の画像形成方法をコンピュータに実行させることができるという効果を奏する。 The program according to claim 25 has the effect of allowing a computer to execute the image forming method according to any one of claims 14 to 24.
また、請求項26にかかる画像処理装置は、予想画像の予想画像情報を生成し、予想画像情報に基づいて予想画像を表示し、操作者の指先およびスタイラスの少なくともいずれかを含む接触物の接触により、予想画像に関する空間情報を取得し空間的な設定である空間指示項目を識別し、音声情報を受け付けて言語を介する設定である言語指示項目を識別し、空間指示項目および言語指示項目の中から選択して画像形成の処理項目を設定する。この構成によって、ユーザによる各種機能の設定作業に先立って画像データを入力して予想仕上がり状態を表示し、表示された画像への接触および発話によって直感的に画像処理の処理項目を設定できるので、操作者にとっては利便性が高く装置にとっては確実性が高い画像処理装置を提供することができるという効果を奏する。 The image processing apparatus according to claim 26 generates predicted image information of the predicted image, displays the predicted image based on the predicted image information, and contacts a contact object including at least one of an operator's fingertip and stylus. To obtain the spatial information related to the predicted image, identify the spatial instruction item that is a spatial setting, identify the language instruction item that receives the voice information and set the language, and identify the spatial instruction item and the language instruction item. To select an image forming process item. With this configuration, it is possible to input image data prior to setting various functions by the user and display the expected finished state, and intuitively set the processing items for image processing by touching and speaking the displayed image. There is an effect that it is possible to provide an image processing apparatus that is convenient for the operator and highly reliable for the apparatus.
また、請求項27にかかる画像処理装置は、設定された画像形成の処理項目に基づいて予想画像情報を生成して、生成された予想画像情報に基づいて予想画像を表示する。この構成によって、処理項目を設定した後の予想仕上がり状態を表示して、さらに表示された画像への接触および発話によって直感的に画像処理の処理項目を設定できるので、操作者にとっては利便性が高く装置にとっては確実性が高い画像処理装置を提供することができるという効果を奏する。 According to a twenty-seventh aspect of the present invention, the image processing apparatus generates predicted image information based on the set image formation processing item, and displays the predicted image based on the generated predicted image information. With this configuration, it is possible to display the expected finished state after setting the processing items, and further intuitively set the processing items for image processing by touching and speaking the displayed image, which is convenient for the operator. For the apparatus, an image processing apparatus having high reliability can be provided.
また、請求項28にかかる画像処理装置は、空間指示項目および言語指示項目を関連させて記憶し、記憶された空間指示項目および言語指示項目の少なくともいずれかを参照して、画像形成の処理項目を設定する。この構成によって、ユーザによる各種機能の設定作業に先立って画像データを入力して予想仕上がり状態を表示し、表示された画像への接触および発話によって直感的に関連性のある画像処理の処理項目を設定できるので、操作者にとっては利便性が高く装置にとっては確実性が高い画像処理装置を提供することができるという効果を奏する。 An image processing apparatus according to a twenty-eighth aspect stores a space instruction item and a language instruction item in association with each other, and refers to at least one of the stored space instruction item and language instruction item to perform an image formation processing item. Set. With this configuration, prior to setting the various functions by the user, the image data is input to display the expected finished state, and the processing items of image processing that are intuitively related by touching and speaking the displayed image are displayed. Since it can be set, it is possible to provide an image processing apparatus that is convenient for the operator and highly reliable for the apparatus.
また、請求項29にかかる画像処理システムは、ネットワーク接続され、画像データを入力して画像データ処理および印刷仕上げ処理後の予想画像を表示し、操作者からの画像形成の処理項目の設定を受け付ける画像処理システムであって、それぞれのうち2つ以上がネットワーク接続され、予想画像の予想画像情報を生成する予想画像情報生成手段と、予想画像情報生成手段によって生成された予想画像情報に基づいて予想画像を表示する表示手段と、予想画像を表示する表示手段への、操作者の指先およびスタイラスの少なくともいずれかを含む接触物の接触により、予想画像に関する空間情報を取得し空間的な設定である空間指示項目を識別する空間項目識別手段と、音声情報を受け付けて受け付けた音声情報から言語を介する設定である言語指示項目を識別する言語項目識別手段と、空間項目識別手段により識別された空間指示項目および言語項目識別手段によって識別された言語指示項目の中から選択して、画像形成の処理項目を設定する設定手段と、を備えた。この構成によって、ユーザによる各種機能の設定作業に先立って画像データを入力して予想仕上がり状態を表示し、表示された画像への接触および発話によって直感的に画像処理の処理項目を設定できるので、操作者にとっては利便性が高くシステムにとっては確実性が高いネットワーク接続された画像処理システムを提供することができるという効果を奏する。 An image processing system according to a twenty-ninth aspect is connected to a network, displays image data after inputting image data and a predicted image after print finishing processing, and accepts setting of processing items for image formation from an operator. An image processing system, in which two or more of each are connected to a network, and predicted image information generating means for generating predicted image information of the predicted image, and prediction based on the predicted image information generated by the predicted image information generating means Spatial information related to the predicted image is obtained by contact of a contact object including at least one of the fingertip of the operator and the stylus with the display unit that displays the image and the display unit that displays the predicted image. Spatial item identification means for identifying spatial indication items, and setting via language from voice information received and received voice information A language item identifying means for identifying a language instruction item to be selected, a space instruction item identified by the space item identifying means, and a language instruction item identified by the language item identifying means, and setting a processing item for image formation And setting means. With this configuration, it is possible to input image data prior to setting various functions by the user and display the expected finished state, and intuitively set the processing items for image processing by touching and speaking the displayed image. There is an effect that it is possible to provide a network-connected image processing system that is convenient for the operator and highly reliable for the system.
また、請求項30にかかる画像処理システムは、予想画像情報生成手段は、設定手段によって設定された画像形成の処理項目に基づいて予想画像情報を生成するものであり、表示手段は、予想画像情報生成手段によって生成された予想画像情報に基づいて予想画像を表示する。この構成によって、処理項目を設定した後の予想仕上がり状態を表示して、さらに表示された画像への接触および発話によって直感的に画像処理の処理項目を設定できるので、操作者にとっては利便性が高くシステムにとっては確実性が高いネットワーク接続された画像処理システムを提供することができるという効果を奏する。 In the image processing system according to the thirty-third aspect, the predicted image information generation unit generates the predicted image information based on the image formation processing items set by the setting unit, and the display unit includes the predicted image information. The predicted image is displayed based on the predicted image information generated by the generating means. With this configuration, it is possible to display the expected finished state after setting the processing items, and further intuitively set the processing items for image processing by touching and speaking the displayed image, which is convenient for the operator. It is possible to provide an image processing system connected to a network that is high and highly reliable for the system.
また、請求項31にかかる画像処理システムは、ネットワークに接続されて、空間指示項目および言語指示項目を関連させて記憶する設定項目記憶手段を、さらに備え、設定手段は、設定項目記憶手段によって記憶された空間指示項目および言語指示項目の少なくともいずれかを参照して、画像形成の処理項目を設定する。この構成によって、ユーザによる各種機能の設定作業に先立って画像データを入力して予想仕上がり状態を表示し、表示された画像への接触および発話によって直感的に関連性のある画像処理の処理項目を設定できるので、操作者にとっては利便性が高くシステムにとっては確実性が高いネットワーク接続された画像処理システムを提供することができるという効果を奏する。 The image processing system according to a thirty-first aspect further includes setting item storage means connected to the network and storing the space instruction item and the language instruction item in association with each other, and the setting means is stored by the setting item storage means. The processing items for image formation are set with reference to at least one of the designated space instruction item and language instruction item. With this configuration, prior to setting the various functions by the user, the image data is input to display the expected finished state, and the processing items of image processing that are intuitively related by touching and speaking the displayed image are displayed. Since it can be set, it is possible to provide a network-connected image processing system that is convenient for the operator and highly reliable for the system.
以下に、本発明にかかる画像形成装置、画像形成方法、その方法をコンピュータに実行させるプログラム、画像処理装置、および画像処理システムの最良な実施の形態を図面に基づいて詳細に説明する。なお、この実施の形態によりこの発明が限定されるものではない。 DESCRIPTION OF EXEMPLARY EMBODIMENTS Exemplary embodiments of an image forming apparatus, an image forming method, a program for causing a computer to execute the method, an image processing apparatus, and an image processing system according to the present invention will be described below in detail with reference to the drawings. Note that the present invention is not limited to the embodiments.
(第1の実施の形態)
図1は、本発明の実施の形態1による画像形成装置の機能的ブロック図である。図1に示す画像形成装置10は、スキャナ11、ADF(オート・ドキュメント・フィーダ)111、スキャナコントローラ112、画像記憶部12、画像処理部13、プリンタ14、プリンタコントローラ142、仕上げ処理部141、操作表示部15、操作表示制御部151、システム制御部16、および通信制御部17を備える。また、画像形成装置10は、通信制御部17を介してネットワーク18と接続されている。そして、画像形成装置10は、原稿19の画像を読み取って画像処理を施した後、印刷物20として出力する。
(First embodiment)
FIG. 1 is a functional block diagram of an image forming apparatus according to
スキャナ11は、スキャナによって原稿19のイメージをディジタル画像データに変換する。なお、このスキャナ11は、複数ページの原稿をセットすると、読取位置に1枚ずつ順に繰り出しながら連続して自動的に読み込みを行うことができるADF111を搭載している。また、このADF111は、用紙の片面に印刷された片面原稿だけでなく、両面に印刷された両面原稿を反転させて自動的に読み込むことが可能である。スキャナコントローラ112は、システム制御部16の命令を受け、スキャナ11を制御する。
The
画像記憶部12は、スキャナ11で読み取った画像データや外部から入力された画像データ等を一時的に保存しておくバッファメモリである。
The
画像処理部13は、スキャナから送られ画像記憶部12に一時的に保存された多値データに対してγ補正やMTF補正処理等を施した後、スライス処理やディザ処理のような階調処理を施して2値(または多値)化処理を施す。また、画像処理部13は、ユーザが設定した機能に対応した各種の画像処理(拡大/縮小、濃度/色の調整など)やレイアウト加工処理(両面印刷/片面印刷、集約印刷、余白サイズの調整など)を行う。
The
画像処理部13は、また空間項目識別部131,言語項目識別部132、処理項目設定部133、画面情報生成部134、および設定項目記憶部135を備える。画像情報生成部134は、入力した画像データに従って、表示パネル15cで表示する予想仕上がり画像を生成する予想仕上がり画像情報を生成する。画像処理部13は本発明の特徴的な部分であり、画像処理部13が備える各部についてはさらに詳しく後述する。
The
プリンタ14は、ここでは画像処理部13で処理された画像データに基づいて光ビームを偏向走査させ、感光体上に形成した静電潜像にトナーを使って現像し、生成されたトナー画像を転写紙に転写して、定着処理を行う電子写真技術を用いたプリンタである。プリンタコントローラ142は、システム制御部16の命令を受けてプリンタを制御する。
Here, the printer 14 deflects and scans the light beam based on the image data processed by the
プリンタ14は、仕上げ処理部141を搭載している。仕上げ処理部141は、ユーザの設定に基づいて、印刷処理が施された印刷物20を部数やページ単位で仕分けを行うソート処理、複数枚の印刷媒体を揃えてステープルで綴じるステープル処理、あるいは、複数枚の印刷媒体をバインダーやファイルに綴じるためのパンチ穴を空けるパンチ穴処理といった仕上げ処理を行う。
The printer 14 includes a finishing
操作表示部15は、マイク15a、タッチパネル15b、および表示パネル15cを備え、マイク15aから音声で設定内容を入力したり、キーボードやタッチパネル15bを使って設定内容を入力したり、予想仕上がり画面や画面の仕上げを設定する設定内容のメニュー項目をタッチパネル15bに表示することができる。タッチパネル15bは、また、視覚的表示の他、スピーカ(不図示)による音声出力を行うこととしてもよい。
The
操作表示部15は、画像形成装置で実行したい機能を設定画面のメニュー項目として表示し、表示されたメニュー項目の中からユーザによる設定入力を受け付けるためのものであり、例えば、原稿の状態に応じたスキャナ11における読み取り条件の設定、読み取った画像データを加工する画像処理部13における設定、プリンタ14における印刷条件の設定、あるいは、印刷後の印刷物に対してソート、ステープル、パンチ穴などの仕上げ処理を行う仕上げ処理部141などの設定を受け付けるものである。
The
ここで、操作表示部15は、例えば画像形成装置で操作入力を行うタッチパネル15bとして構成できる。タッチパネル15bは、設定のためのメニュー項目を表示するほか、空間項目識別部131により生成した仕上がり予想情報を表示することとしても良い。仕上がり予想情報が画像やテキストの場合、タッチパネル15bに表示され、仕上がり予想情報が音声の場合、スピーカ(不図示)から音声出力してもよい。
Here, the
表示パネル15cは、タッチパネル15bと一体に構成しても良く、また、画像形成装置が備える専有の表示装置を用いても良い。
The
操作表示制御部151は、操作表示部15との入出力を制御、例えば、画像処理部13によって処理されたデータを操作表示部15のタッチパネル15bおよびスピーカ(不図示)に出力制御する。あるいは、操作表示制御部151は、操作表示部15のマイク15aおよびタッチパネル15bからの入力制御を行う。
The operation
システム制御部16は、各構成部と接続されていて、画像形成装置10全体の制御を行うものである。このシステム制御部16は、不図示のCPU、ROM、RAMなどから構成されており、CPUがROMに格納された基本プログラムに基づいて、RAMのワーク領域を利用しながら各種の処理を行っている。
The
通信制御部17は、LAN(ローカル・エリア・ネットワーク)やインターネットなどのネットワーク18と接続され、通信プロトコルに従ってネットワークに接続された他の機器との間で画像データや制御データ等のやり取りを行うものである。
The
ここで、本発明に特徴的な画像処理部13についてさらに説明する。画面情報生成部134は、入力した画像データに従って、表示パネル15cに仕上がり予想画面を表示する仕上がり予想画面情報を生成する。操作表示制御部151は、生成された仕上がり予想画面情報に従って、表示パネル15cに仕上がり予想画面を表示させる。
Here, the
ここで、表示パネル15cとタッチパネル15bは図面上別々に記載されているが、一体的に構成する。表示パネル15cに操作者の指などが接触することは、同時にタッチパネル15bが接触入力を受け付ける。
Here, although the
操作者が、表示部パネル15cに表示された仕上がり予想画面を見ながら指やスタイラスペンなど(以下ポインターと記す)で接触することによって、タッチパネル15bは、表示された予想仕上がり画面上の印刷物の仕上がり状態における空間的位置情報の入力を受け付ける。空間項目識別部131は、タッチパネル15bによって受け付けられた空間的位置情報を解析し、例えば余白の幅の値などのような空間的な設定項目を識別する。
When the operator touches with a finger, a stylus pen or the like (hereinafter referred to as a pointer) while looking at the predicted finished screen displayed on the
操作表示部15のマイク15aは、操作者の発話による音声情報の入力を受け付ける。言語項目識別部132は、マイク15aを介して入力された音声情報を音声認識して言語解析を行い、言語情報を介した設定である言語指示項目を認識する。
The
処理項目設定部133は、空間項目識別部131によって認識された空間的な設定項目、および言語項目識別部132によって認識された言語的な設定項目の組合せの中から選択して、画像形成時に施す処理項目を設定する。
The processing
ここで、選択される空間的な設定項目は、設定項目記憶部135に記憶されており、空間項目識別部131が設定項目記憶部135の中から空間指示項目を候補として取得する。処理項目設定部133は、空間項目識別部131によって候補として選択された空間指示項目の中から特定する。空間項目識別部131は、例えば、実際に取得した位置情報と、設定項目記憶部135に記憶された空間指示項目における位置情報との誤差を算出し、算出された誤差の小さな順に並べて特定する。
Here, the spatial setting item to be selected is stored in the setting
また、言語的な設定項目は、設定項目記憶部135に記憶されており、言語項目識別部132が設定項目記憶部135の中から言語指示項目を候補として取得する。処理項目設定部133は、言語項目識別部132によって候補として選択された言語指示項目の中から特定する。言語項目識別部132は、例えば、実際に取得した音声情報と、設定項目記憶部135に記憶された言語指示項目における音声情報との誤差を算出し、算出された誤差の小さな順に並べて特定する。
Further, the linguistic setting item is stored in the setting
処理項目設定部133は、特定した空間指示項目および言語指示項目を組み合わせて画像形成のための処理項目を設定する。
The process
画面情報生成部134は、処理項目設定部133によって設定された処理項目に従って、再び仕上がり予想画面情報を生成し、表示パネル15cに表示する。
The screen
さらに具体的な設定入力について説明する。ユーザは、タッチパネル15b上で、ポインター(ユーザーの指先や専用ペンなど)によって、例えば、仕上がり予想図上の特定の位置、方向、領域、形状に関して入力する。空間項目識別部131は、例えば、接触位置については、スタンプ印字やパンチ穴の位置をいくつかの候補のうちから、ポインターの接触位置に最も近い位置を識別する。方向については、空間項目識別部131は、例えば、両面コピー時の開き方向、ステープルを止める方向など、いくつかの候補の中からポインターが接触後、離れるまでの移動方向に最も近い方向を識別する。領域については、空間項目識別部131は、例えば、余白領域や消去領域として指定される領域を、ポインターが接触後、離れるまでの軌跡を矩形として識別し、識別した矩形領域を指定する数値に最も近い数値を選択する。
More specific setting input will be described. On the
ユーザが日付印字の書式として「2004/2/23」を指示する場合、空間項目識別部131はポインターが接触してから離れるまでの軌跡として斜線の組である「//」のような接触形状から識別し、また、「2004.2.23」を指示する場合、空間項目識別部131はポインターの接触により生成されるピリオドの組みである「..」のような接触形状を識別する。
When the user designates “2004/2/23” as the date printing format, the space
言語項目識別部132は、取得した音声を音声認識によって認識し、設定項目記憶部135に記憶されている設定項目情報の中から取得した言語指示項目を候補として識別する。ここでいう言語指示項目とは例えば、「スタンプ印字」「パンチ」「原稿セット方向」「ステープル」「余白」「消去」「日付印字」など、ユーザの発話する言葉で表現される複写機の処理の種類である。
The language
処理項目設定部133は、空間項目識別部131および言語項目識別部132が識別した指示項目を相補的に組み合わせることにより、ユーザの指示した設定項目を相補的に特定して、画像形成装置へ設定する。
The processing
設定項目記憶部135は、処理項目、位置項目、方向項目、領域項目、形状項目などの組み合わせ可能な設定変更項目を記憶している。処理項目設定部133は、表示パネル15cに表示されたメニュー画面からの変更入力を受け付けた場合、設定項目記憶部135に記憶されているこれらの項目からの組合せを選択することによって、設定変更を行うことができる。
The setting
図2は、実施の形態1による画像形成装置において、操作者によるタッチパネルへの接触と発話によって画像処理項目が設定されることを説明する図である。図3は、タッチパネルへの接触と発話によって画像処理項目が設定された仕上がり予想画面と、さらに画面上から設定を受け付けることを説明する図である。図4は、タッチパネルへの接触と発話によって画像処理項目が設定された仕上がり予想画面上から、両面コピーであることの設定入力を受け付けることを説明する図である。 FIG. 2 is a diagram illustrating that image processing items are set by an operator touching the touch panel and speaking in the image forming apparatus according to the first embodiment. FIG. 3 is a diagram illustrating a predicted finish screen in which image processing items are set by touching the touch panel and speaking, and accepting settings from the screen. FIG. 4 is a diagram for explaining accepting a setting input indicating duplex copying from a predicted finish screen on which image processing items are set by touching the touch panel and speaking.
ここでは、印刷すべきページの右上に、2004/2/25のような書式で、日付印字を指定しようとする。ユーザによる設定の操作に先立って、最初、原稿読み取り装置によって読み取られた画像データから、デフォルトの設定項目を反映した予想仕上がり画像が仕上がり予想図2bとして表示されている(図2)。ユーザはポインターで接触軌跡2cのように接触する。接触によって、タッチパネル15bは位置情報を取得する。次に、ユーザは、「日付印字」と発話する(ユーザの発声2d)。発話によってマイク15aは、音声情報を取得する。
Here, date printing is to be designated in the upper right of the page to be printed in a format such as 2004/2/25. Prior to the setting operation by the user, a predicted finished image reflecting default setting items is displayed as a predicted finished drawing 2b from the image data read by the original reading apparatus (FIG. 2). The user touches with a pointer like a
空間項目識別部131は、斜線の位置情報から日付のための斜線であると識別して空間指示項目を選択し、言語項目識別部132は「日付印字」と発話された音声から日付であることを識別し言語指示項目を選択する。処理項目設定部133は、指示項目を組み合わせて「2004/2/25」のような書式で仕上がり予想情報図2b(図2)の右上に日付印字を設定し、設定された日付印字が付された仕上がり予想情報図3b(図3)が表示パネル15cに表示される。図3に表示された仕上がり予想情報図3bは、この操作の時点までに設定された項目を反映した仕上がり予想画像である。
The space
表1は、言語指示項目と空間指示項目とから画像形成の処理項目を特定するテーブルの一例である。 Table 1 is an example of a table for specifying processing items for image formation from language instruction items and space instruction items.
ポインターの接触によって日付印字のための斜線が識別され、発声によって言語指示項目のうち「日付印字」が識別され、画像処理部13が備える日付機能によって具体的な日付情報であるYYYY/MM/DD(年月日情報)が形状項目として対応付けられる。
Diagonal lines for date printing are identified by touching the pointer, “date printing” is identified among the language instruction items by utterance, and specific date information YYYY / MM / DD is identified by the date function provided in the
次に、ユーザは表示された画面上で、ユーザの接触軌跡3c(図3)のように指で接触しながら軌跡を描いて、ユーザの発声3dである「余白」と、発話を行う。これにより、空間項目識別部131は接触軌跡を矩形情報であると解析し、言語項目識別部132は発話を言語指示項目として余白の設定であると識別し、処理項目設定部133は、識別された矩形情報と余白設定である情報から接触軌跡3cの水平方向の幅を余白幅として設定し、画面情報生成部134は、図4に示された仕上がり予想情報図4bのように画像が全体的に右にシフトされて余白の幅が確保された形の仕上がり予想図を表示するための仕上がり予想画面情報を生成し、表示パネル15cは、新たな仕上がり予想画面を表示する(図4)。
Next, the user draws a trajectory while touching with a finger like the user's
次にユーザは、表示パネル15cに表示された仕上がり予想情報図4b(図4)上で、両面コピーの場合の開き方向を指定する。ユーザは指先の接触により接触軌跡4c(図4)のような軌跡をタッチパネル15b上で描く。そして、「両面コピー」発声する(ユーザの発声4d)。この指先の接触および発声による2つの入力によって、空間項目識別部131および言語項目識別部132によって接触軌跡の方向4cがページをめくる方向として識別され、処理項目設定部133は開き方向左右の両面コピーとして設定を受け付ける。受け付けられた設定によって、画目情報生成部134は、表示画面のための画面情報を生成する。この時、3次元的に表示できる画面情報を生成することが望ましい。
Next, the user designates an opening direction in the case of double-sided copying on the predicted finish information figure 4b (FIG. 4) displayed on the
図5は、両面コピーであることが設定された仕上がり予想画面の表示の一例を示す模式図である。図5に示されたように、仕上がりが予想された印刷物が、表裏で天地が同じ両面コピーの仕上がり予想図として3次元的に表示される。 FIG. 5 is a schematic diagram illustrating an example of a display of a predicted finished screen set to be duplex copying. As shown in FIG. 5, the printed matter that is predicted to be finished is displayed three-dimensionally as a predicted finish for double-sided copy with the same top and bottom.
図6は、実施の形態1による画像形成手順を示すフローチャートである。画像情報生成部134は、画像データの入力を検知する状態にあり(ステップS101)、検知した場合(ステップS101のYes)、仕上がり予想画像情報を生成する(ステップS102)。操作表示部15は、仕上がり予想画像情報に基づいて仕上がり予想画像を表示する(ステップS103)。
FIG. 6 is a flowchart showing an image forming procedure according to the first embodiment. The image
ここで、タッチパネル15bは、接触による入力を検知する状態にあって(ステップS104)、検知した場合(ステップS104のYes)、空間項目識別部131は、接触による入力から空間情報を取得し、空間指示項目を識別する(ステップS105)。
Here, the
マイク15aは、音声を検知する状態にあって(ステップS106)、検知した場合(ステップS106のYes)、言語項目識別部132は、音声情報を取得して言語指示項目を識別する(ステップS107)。
The
処理項目設定部133は、空間指示項目および言語指示項目の組合せから、画像形成の処理項目を設定する(ステップS108)。ここで、印刷実行しない場合(ステップS109のNo)、さらにステップS108において設定された設定項目によって画像情報生成部134は、再び仕上がり予想画像情報を生成し(ステップS102)、表示パネル15cが仕上がり予想画面を表示して(ステップS103)、必要な場合は、ポインターによる接触入力を受け付けるなどのルーティンを繰り返す。また、印刷実行などの画像形成処理命令が受け付けられた場合(ステップS109のYes)、画像形成処理が施される(ステップS110)。
The process
このようにして、実施の形態1による画像形成装置は、予想仕上がり画面を表示パネル15cに表示し、ポインターによる入力によって空間指示項目を選択し、音声入力によって言語指示項目を選択し、処理項目設定部が空間指示項目と言語指示項目とを組み合わせて処理項目を設定するので、操作者にとっては利便性が高く装置にとっては確実性が高いものとなる。
In this manner, the image forming apparatus according to the first embodiment displays the expected finished screen on the
(実施の形態2)
図7は、実施の形態2による画像形成装置の要部である画像処理部の機能的ブロック図である。実施の形態2による画像形成装置は、画像処理部23の処理項目設定部233が設定処理を施す機能が、実施の形態1の場合と異なる。以下、異なった部分について主に説明する。
(Embodiment 2)
FIG. 7 is a functional block diagram of an image processing unit which is a main part of the image forming apparatus according to the second embodiment. The image forming apparatus according to the second embodiment is different from the first embodiment in the function that the processing
実施の形態2による処理項目設定部233は、空間項目識別部131または言語項目識別部132のいずれか一方の指示項目を識別した場合、識別した指示項目の中から候補を選択し、続いて他の空間項目識別部131または言語項目識別部132に出力し、該他の識別部は入力を受け付けた候補に基づいて指示項目の候補を選択することによって指示項目の候補を制限し、処理項目設定部233は該選択された一方の指示項目および制限された該他の指示項目の組合せによって、画像形成の処理項目を設定する。この構成によって、画像形成の処理項目を絞り込むことができる。
When the process
まず、空間項目識別部131による指示項目が、最初に選択される場合を説明する。処理項目設定部233は、空間項目識別部131が識別した空間指示項目情報に従って、設定項目記憶部135に記憶されている設定項目のうち、空間指示項目を抽出し、抽出された空間指示項目を処理項目候補として言語項目識別部132へ出力する。言語項目識別部132は、入力した空間指示項目情報に基づいて、対応する言語指示項目を選択する。
First, a case where the instruction item by the space
ここで、言語項目識別部132は、処理項目設定部133から受け取った空間指示項目の候補に対応する言語指示項目を、ユーザ発話から言語解析した言語指示項目から識別してその候補を選択する。言語項目識別部132は、処理項目設定部233に対して、選択された言語指示項目を送信する。処理項目設定部233は、受信した言語指示項目情報と、すでに得ている空間指示項目情報を合わせることによって、ユーザから受け付けた設定入力による処理項目を特定し、特定された処理項目を画像形成装置へ設定する。
Here, the language
図8は、実施の形態2による画像形成手順を示すフローチャートである。ここで、ステップS105までは実施の形態1の場合と同様である。表示パネル15cが予想仕上がり画面を表示して(実施の形態1におけるステップS103)、タッチパネル15bが接触による空間情報の入力を検知すると(ステップS104のYes)、空間項目識別部131は空間情報を取得して空間指示項目を識別する(ステップS105)。処理項目設定部233は言語指示項目の候補を選択して言語項目識別部132に出力する(ステップS201)。
FIG. 8 is a flowchart showing an image forming procedure according to the second embodiment. Here, steps up to step S105 are the same as those in the first embodiment. When the
マイク15aは、音声を検知する状態にあり(ステップS202)、検知した場合(ステップS202のYes)、言語項目識別部132は、マイク15aによって検知された音声情報を取得し、既に入力した空間指示項目の候補に対応付けられる言語指示項目の候補を識別し、選択して処理項目設定部233に出力する(ステップS203)。処理項目設定部233は、既に入力している空間指示項目と、言語項目識別部132から入力する言語指示項目に従って、画像形成の処理項目を設定する(ステップS204)。
The
このように、実施の形態2による処理項目設定部233は、空間項目識別部131が空間指示項目を識別してその中から候補を選択し、選択した空間指示項目の候補を言語項目識別部132に出力し、続いて言語項目識別部132は選択された空間処理項目に対応する言語指示項目の候補を選択する。そして、処理項目設定部133は、選択された空間指示項目および言語指示項目の組合せによって画像形成の処理項目を設定する。このようにして、互いに対応付けられる空間指示項目および言語指示項目を、順序に従って候補を選択することによって、効率的かつ確実に設定項目を選択することができる。
As described above, in the processing
(実施の形態2の変形例)
図9は、実施の形態2による他の画像形成装置の要部である画像処理部の機能的ブロック図である。ここで画像処理部33の処理項目設定部333が、実施の形態2による画像処理部23と異なる点は、最初に言語項目識別部132が識別した言語指示項目を、処理項目設定部333が選択して空間項目識別部131に出力し、空間項目識別部131は入力した言語指示項目に対応する空間指示項目の候補を選択し、処理項目設定部333は、選択された言語指示項目および空間指示項目によって、画像形成の処理項目を設定する。この構成によって、画像形成の処理項目を絞り込むことができる。
(Modification of Embodiment 2)
FIG. 9 is a functional block diagram of an image processing unit which is a main part of another image forming apparatus according to the second embodiment. Here, the processing
処理項目設定部333は、最初、設定項目記憶部235に記憶されている設定項目のうち、言語項目識別部132によって識別された言語指示項目を抽出し、抽出された言語指示項目を空間項目識別部131へ出力する。空間項目識別部131は、入力した言語指示項目に対応して空間指示項目の候補を選択し、処理項目設定部333に出力する。処理項目設定部333は、受信した空間指示項目および言語指示項目とを対応付けて、ユーザの指示した設定項目を特定し、画像形成装置へ設定する。
The process
図10は、実施の形態2による他の画像形成手順を示すフローチャートである。ここでは、実施の形態1による画像形成手順におけるS103、即ち、入力した画像データを基に、表示パネル15cには仕上がり予想画面が表示された状態からスタートする。マイク15aは音声を検知する状態にあり(ステップS301)、操作者の発話を検知した場合(ステップS301のYes)、言語項目識別部132は言語指示項目を識別する(ステップS302)。そして、処理項目設定部333は、空間指示項目の候補を選択して、空間項目識別部131に出力する(ステップS303)。
FIG. 10 is a flowchart showing another image forming procedure according to the second embodiment. Here, S103 in the image forming procedure according to the first embodiment, that is, based on the input image data, starts from a state in which a predicted finish screen is displayed on the
タッチパネル15bは、ポインターの接触を検知する状態にあり(ステップS304)、検知した場合(ステップS304のYes)、空間項目識別部131は空間情報を取得して入力した言語情報項目に対応する空間指示項目を識別し、処理項目設定部333に出力する(ステップS305)。処理項目設定部333は、既に入力した言語指示項目と、ここで入力した空間指示項目とを対応付けて、画像形成の処理項目を設定する(ステップS306)。
The
ここで実施の形態2による他の処理項目設定部333は、最初に言語項目識別部132が言語指示項目を識別して候補を選択し、続いて空間項目識別部131が選択された言語指示項目の候補に対応する空間指示項目を識別し、処理項目設定部333が、言語指示項目と空間指示項目との候補を対応付けて画像処理の処理項目を設定する。これによって、順序に従って言語および空間指示項目の候補を選択して対応づけることによって、効率的かつ確実に設定項目を選択し、効率的に設定作業を行うことができる。
Here, in the other processing
(実施の形態3)
図11は、実施の形態3による画像形成装置の要部である画像処理部の機能的ブロック図である。実施の形態3による画像処理部43が、実施の形態1と異なる点は、画像処理部43の設定項目記憶部335が確実度データベース(DB)335aを備え、空間項目識別部431および言語項目識別部432が確実度情報を付加した指示項目を識別し、処理項目設定部433が確実度情報を付加された指示項目から選択して画像形成の処理設定を行う点である。以下、異なる点について主に説明する。
(Embodiment 3)
FIG. 11 is a functional block diagram of an image processing unit which is a main part of the image forming apparatus according to the third embodiment. The
空間項目識別部431は、設定項目記憶部335に記憶された指示項目情報に対して、確実度データベース335aから取得するそれぞれの空間確実度情報を付加して識別し、処理項目設定部433に出力する。
The space
言語項目識別部432は、設定項目記憶部335に記憶された指示項目情報に対して、確実度データベース(DB)335aから取得するそれぞれの言語確実度情報を付加して識別し、処理項目設定部433に出力する。
The language
処理項目設定部433は、入力した空間確実度情報が付加された空間指示項目情報および言語確実度情報が付加された言語指示項目情報を対応させて、画像処理の項目を設定する。
The process
ここで、空間指示項目に対する確実度は、例えば読み取った空間情報と予め設定項目記憶部335に記憶されている空間指示項目に関連する空間情報との誤差に反比例して定めることができる。
Here, the certainty for the space instruction item can be determined in inverse proportion to an error between the read space information and the space information related to the space instruction item stored in the setting
また、言語指示項目に対する確実度は、例えば入力した音声情報と予め設定項目記憶部335に記憶されている言語指示項目に関連する音声情報との誤差に反比例して定めることができる。
In addition, the certainty for the language instruction item can be determined in inverse proportion to, for example, an error between the input voice information and the voice information related to the language instruction item stored in the setting
確実度データベース335aは、例えば、空間情報との誤差と確実度、および音声情報との誤差と確実度のテーブルとして構成できる。空間項目識別部431および言語項目識別部432は、それぞれの指示項目に対してテーブルを用いて確実度情報を取得して付加する。
The certainty database 335a can be configured, for example, as a table of errors and certainty with spatial information and errors and certainty with audio information. The space
処理項目設定部433は、付加された確実度に従って、空間指示項目および言語指示項目を選択して画像形成の処理を設定する。
The process
図12は、実施の形態3による画像形成手順を説明するフローチャートである。ここで、実施の形態1におけるステップS104までは同じであるので、省略し、異なる手順について主に説明する。タッチパネル15bがユーザの指などによって接触入力を検知した場合(ステップS104のYes)、空間項目識別部432は、空間情報から空間指示項目を識別して関連する空間確実度情報を取得する(ステップS401)。
FIG. 12 is a flowchart for explaining an image forming procedure according to the third embodiment. Here, since it is the same up to step S104 in
マイク15aは、音声を検知する状態にあり(ステップS402)、検知した場合(ステップS402のYes)、言語項目識別部432は、音声情報から言語指示項目を識別して関連する言語確実度情報を取得する(ステップS403)。処理項目設定部433は、空間確実度および言語確実度を用いて空間指示項目および言語指示項目を対応付けて、画像形成の処理項目を設定する(ステップS404)。
The
このように、実施の形態3による画像形成装置においては、空間項目識別部431が空間確実度情報を付加した空間指示項目を識別し、言語項目識別部432が言語確実度情報を付加した言語指示項目を識別し、処理項目設定部433はそれら確実度を用いて空間指示項目および言語指示項目を対応させて画像処理の項目を設定するので、効率的かつ確実度の高い設定項目を選択し、効率的に設定作業を行うことができる。
As described above, in the image forming apparatus according to the third embodiment, the space
(実施の形態4)
図13は、実施の形態4による画像形成装置の要部である画像処理部の機能的ブロック図である。実施の形態3による画像処理部53が、実施の形態1と異なる点は、画像処理部53の設定項目記憶部335が関連度データベース(DB)335bを備え、処理項目設定部533が、空間項目識別部531が識別する空間指示項目および言語項目識別部532が識別する言語指示項目の相互の関連性を示す関連度を取得し、取得した関連度に従って、画像形成の処理項目を設定することである。
(Embodiment 4)
FIG. 13 is a functional block diagram of an image processing unit which is a main part of the image forming apparatus according to the fourth embodiment. The
ここで、関連度DB335bは、すべての空間指示項目と言語指示項目との組み合わせに対する関連度を記憶している。例えば、実施の形態1における図2で、ユーザの接触軌跡2cが検出された場合、日付印字処理である可能性が高くなるので、斜線2本の接触軌跡の空間指示項目および日付印字の言語指示項目との関連度は、0.9である、というように定めることができる。また、斜線2本とパンチ穴処理の関連度は低く、例えば0.1であると定めることができる。定めた関連度は、テーブルとして記憶する。
Here, the
処理項目設定部533は、空間指示項目および言語指示項目に対応するそれぞれの関連度を取得し、最も関連度の高い組合せを選択して画像形成の処理設定とする。
The process
図14は、実施の形態4による画像形成手順を説明するフローチャートである。ここで、実施の形態1におけるステップS107まで同じ手順であるので説明を省略し、異なる手順についてのみ説明する。言語項目識別部532が音声情報を取得し、言語解析を行って言語指示項目を識別すると(ステップS107)、処理項目設定部533は、空間項目識別部531が識別した空間指示項目および言語項目識別部532が識別した言語指示項目の関連度を取得し(ステップS501)、取得した関連度に従って、空間指示項目および言語指示項目を対応させ、画像処理の項目を設定する(ステップS502)。
このように、実施の形態4による画像形成装置においては、空間項目識別部53が空間指示項目を識別し、言語項目識別部532が言語指示項目を識別し、処理項目設定部533は空間指示項目および言語指示項目のそれぞれ関連度を取得し、取得した関連度に従って画像形成の処理項目を設定するので、効率的かつ関連度の高い設定項目を選択し、効率的に設定作業を行うことができる。
FIG. 14 is a flowchart illustrating an image forming procedure according to the fourth embodiment. Here, since the procedure is the same up to step S107 in the first embodiment, a description thereof will be omitted, and only a different procedure will be described. When the language
As described above, in the image forming apparatus according to the fourth embodiment, the space
(実施の形態4の変形例)
図15は、実施の形態4による他の画像形成装置の画像処理部の機能的ブロック図である。ここで、処理項目設定部633は、取得した確実度情報を付加された空間指示項目、確実度を付加された言語指示項目、および空間指示項目および言語指示項目の関連度に基づいて、画像形成の処理項目を設定する。それぞれの空間指示項目および言語指示項目についての重要度および関連度に対して、例えば、重み付け加算を行って、加算された値が最大の組合せ候補を、設定項目として選択し、画像形成の処理項目に設定する。
(Modification of Embodiment 4)
FIG. 15 is a functional block diagram of an image processing unit of another image forming apparatus according to the fourth embodiment. Here, the processing
複数候補が挙げられた空間指示項目および言語指示項目において、i番目の空間指示項目の候補に対する確実度をSi、j番目の言語指示項目の候補に対する確実度をLj、i番目の空間指示項目の候補とj番目の言語指示項目の候補の関連度をRij、空間指示項目に対する重み係数をSc、言語指示項目に対する重み係数をLc、そして関連度に対する重み係数をRcとする。 In the space instruction item and language instruction item in which a plurality of candidates are listed, the certainty for the i-th space instruction item candidate is Si, the certainty for the j-th language instruction item candidate is Lj, and the i-th space instruction item is Assume that the degree of association between the candidate and the candidate for the jth language instruction item is Rij, the weight coefficient for the space instruction item is Sc, the weight coefficient for the language instruction item is Lc, and the weight coefficient for the degree of association is Rc.
処理項目設定部633は、
Pij=ScSi+LcLj+RcRij
を算出し、Pij値を最大とするiとjの組を選択し、該当するi、jに対応する空間指示項目および言語指示項目を対応付けることによって、画像形成の処理項目を設定する。
The processing
Pij = ScSi + LcLj + RcRij
Is selected, a pair of i and j that maximizes the Pij value is selected, and the processing items for image formation are set by associating the space instruction item and the language instruction item corresponding to the corresponding i and j.
図16は、実施の形態4による他の画像形成手順を説明するフローチャートである。スタートが実施の形態におけるステップS104のYesであるのは、実施の形態3の場合と同様である。空間項目識別部431は空間情報を取得して対応する確実度情報を取得する(ステップS601)。マイク15aは音声を検出状態にあり(ステップS602)、音声を検知した場合(ステップS602のYes)、言語項目識別部432は音声情報を取得して言語指示項目を識別しその確実度情報を取得する(ステップS603)。
FIG. 16 is a flowchart for explaining another image forming procedure according to the fourth embodiment. The start is Yes in step S104 in the embodiment, as in the case of the third embodiment. The space
処理項目設定部633は、空間指示項目および言語指示項目の関連度情報を取得する(ステップS604)。処理項目設定部633は、空間確実度、言語確実度、および関連度情報のそれぞれに対してそれぞれの重みを付けて加算し、加算値が最大の指示項目を対応付けて、画像形成の処理項目を設定する(ステップS605)。
The process
このように、実施の形態4の変形例による画像形成装置においては、処理項目設定部533は空間指示項目の確実度、言語指示項目の確実度、および両指示項目の関連度をそれぞれ重み付けして加算し、最大の加算値を与える空間指示項目および言語指示項目を対応させて画像形成の処理項目を設定するので、関連性および確実性の高い設定項目を選択し、効率的に確実に設定作業を行うことができる。
As described above, in the image forming apparatus according to the modification of the fourth embodiment, the processing
(実施の形態5)
図17は、本発明の実施の形態5による画像形成装置の機能的ブロック図である。実施の形態5による画像形成装置40が、実施の形態1による画像形成装置10と異なる点は、画像解析部81、関連機能検索部82、および関連機能対応表821を備えた点であり、また、画像処理部730の機能が実施の形態1における画像処理部13と異なる点である。図17に示すように画像処理部730は、空間項目識別部731、言語項目識別部732、処理項目設定部733、および画面情報生成部734を備える。
(Embodiment 5)
FIG. 17 is a functional block diagram of an image forming apparatus according to Embodiment 5 of the present invention. The
実施の形態5による画像形成装置においては、画像解析部81、関連機能検索部82、および関連機能対応表821が原稿特性値を抽出し、画面情報生成部734が抽出された原稿特性値に基づいて、入力画像データから仕上がり予想画面情報を生成し、表示部パネル15cが仕上がり予想および入力画面を表示する。
In the image forming apparatus according to the fifth embodiment, the
画像解析部81は、画像記憶部12が保持している原稿画像データを解析して、原稿の特性を表す原稿特性値を抽出する。原稿特性値は、例えば、原稿のサイズ、向き、余白寸法である。
The
関連機能検索部82は、画像解析部81で算出された各種の原稿特性値についての情報を受信した場合、当該原稿を複写する際に設定が必要な関連機能を検索する。関連機能検索部82は、関連機能対応表821を有する。関連機能対応表821は、個々の原稿特性値に関連した機能の一覧情報を記述するファイルである。関連機能検索部82は、入力された原稿特性値に対応した関連機能を関連機能対応表821から検索し、より絞り込まれた関連機能情報を画像処理部730に送信する。画像処理部730が受信した関連機能情報は、画面情報生成部734によって、予想仕上がり画面情報の生成に使用される。
When the related
実施の形態5による画像処理部730の画面情報生成部734は、画像解析部81の画像解析に基づく原稿特性値、および、該原稿特性値を用いて関連機能検索部82が抽出して絞り込んだ関連機能情報を使用して、入力画像データから仕上がり情報および入力画面情報を生成する。ここで、入力画面情報によって表示パネル15cに表示された入力画面から設定入力を受け付けるのは実施の形態1と同様である。
The screen
ここで、画像解析部81,関連機能検索部82,および関連機能対応表821は本発明の画像解析手段を構成する。
Here, the
ここで、画像解析部81が解析した原稿特性値、および原稿画像データに従って、例えば、処理項目設定部733は、
1.原稿サイズはA3
2.原稿方向は横
3.余白寸法は、上:20mm 下:15mm 左:20mm 右:20mm
という設定を行う。
Here, according to the document characteristic value analyzed by the
1. The document size is A3
2. 2. Document orientation is horizontal. The margin dimensions are: Top: 20mm Bottom: 15mm Left: 20mm Right: 20mm
Set as follows.
ユーザは仕上がり予想を画面上で視認しながら、タッチパネル15bおよびマイク15aを介して設定入力を行う。設定入力を行った後の各部の処理は実施の形態1の場合と同様であるので説明を省略する。
The user performs setting input through the
図18は、実施の形態5による画像形成手順を示すフローチャートである。画像情報生成部が画像データを検知した場合(実施の形態1におけるステップS101のYes)、画像解析部81が入力した画像データの原稿特性値を解析し(ステップS701)、関連機能検索部82は解析された原稿特性値に基づいて関連機能を検索して検索結果を画像処理部730に送信する(ステップS702)。画像情報生成部734は、受信した検索結果を加味して仕上がり予想画像情報を生成し(ステップS703)、表示パネル15cは仕上がり予想画像を表示する(ステップS704)。以下のステップは実施の形態1におけるステップS104以下と同じであるので、説明を省略する。
FIG. 18 is a flowchart showing an image forming procedure according to the fifth embodiment. When the image information generation unit detects the image data (Yes in step S101 in the first embodiment), the original characteristic value of the image data input by the
このようにして、画像解析部81が解析した原稿画像の特性値をも含めて、予想される仕上がり、およびユーザからの設定入力を受け付ける入力画面を表示して、該入力画面の表示からユーザによる設定入力を受け付けるので、原稿特性を表す原稿特性値を用いて、仕上がり予想およびさらに設定入力すべき項目を的確に絞り込むので的確で確実度の高い設定項目を選択でき、効率的で確実な設定作業を行うことができる。
In this way, an input screen for accepting an expected finish and setting input from the user including the characteristic value of the document image analyzed by the
(実施の形態6)
実施の形態6による画像処理装置は、実施の形態1による画像形成装置における画像処理機能を実行する部分を画像処理装置として構成したものである。
(Embodiment 6)
In the image processing apparatus according to the sixth embodiment, a portion that executes an image processing function in the image forming apparatus according to the first embodiment is configured as an image processing apparatus.
図19は、実施の形態6による画像処理装置の機能的ブロック図である。実施の形態6による画像処理装置50は、画像形成装置60における画像処理機能を実行する。画像処理装置50が備える各処理部の構成と作用は、実施の形態1における各処理部と同じであるので、説明を省略する。
FIG. 19 is a functional block diagram of the image processing apparatus according to the sixth embodiment. The
実施の形態6による画像処理装置においては、読み取った画像データまたはネットワークを介して入力した画像データに対して、印刷前に仕上がり予想画面および操作者が設定入力可能な入力画面を表示する。そして、予想仕上がり画面を表示パネル15cに表示して、ポインターによる入力によって空間指示項目を選択し、音声入力によって言語指示項目を選択し、空間指示項目と言語指示項目とを組み合わせて画像処理項目を設定するので、操作者にとっては利便性が高く装置にとっては確実性が高いものとなる。
In the image processing apparatus according to the sixth embodiment, a predicted finish screen and an input screen on which an operator can input settings are displayed before printing for the read image data or image data input via a network. Then, an expected finish screen is displayed on the
(実施の形態7)
図20は、実施の形態7による画像処理システムの機能的ブロック図である。実施の形態7による画像処理システムは、実施の形態1による画像形成装置の画像処理機能部分と、他の機能を実行する部分とを、ネットワークを介して接続して構成したシステムである。ここで、画像処理部73は、1つの部分として記載されているが、各部がそれぞれ分かれてネットワークを介して接続される構成であっても良い。
(Embodiment 7)
FIG. 20 is a functional block diagram of an image processing system according to the seventh embodiment. The image processing system according to the seventh embodiment is a system in which the image processing function part of the image forming apparatus according to the first embodiment and a part that executes other functions are connected via a network. Here, the
実施の形態7による画像処理システム70、原稿読取装置71、および印刷装置76はネットワーク18を介して接続されて画像系システムを形成している。画像処理システム70は、画像処理装置73、操作表示装置75を備える。画像処理装置73の各部はそれぞれがネットワーク18を介して接続される構成とすることもできる。実施の形態7による画像処理システム70における各装置、あるいは各部は、ネットワークで接続されること以外は画像処理装置10のそれぞれ対応する各部と同様に構成できる。
The
また、図20において図示したように、画像データの原稿特性値を解析する画像解析装置74を加える構成とすることができる。
Further, as shown in FIG. 20, an
実施の形態7による画像処理システムにおいては、読み取った画像データまたはネットワークを介して入力した画像データに対して、印刷前に仕上がり予想画面および操作者が設定入力可能な入力画面をネットワークを介して表示する。そして、予想仕上がり画面を操作表示装置75の表示パネル715cに表示して、ポインターによる入力によって空間指示項目を選択し、音声入力によって言語指示項目を選択し、空間指示項目と言語指示項目とを組み合わせて画像形成の処理項目をネットワークを介して設定するので、操作者にとっては利便性が高くシステムにとっては確実性の高いものとなる。
In the image processing system according to the seventh embodiment, for the read image data or image data input via the network, a predicted finished screen and an input screen on which the operator can input settings are displayed via the network. To do. Then, an expected finished screen is displayed on the display panel 715c of the
(ハードウェア構成など)
図21は、実施の形態による画像形成装置のハードウェア構成図である。本実施の形態による画像形成装置1000は、CPU(Central Processing Unit)1010などの制御装置と、ROM(Read Only Memory)1020やRAM1030などの記憶装置と、HDD1040、CDドライブ装置などの外部記憶装置と、モニタ1110などの表示装置と、キーボード1120、マウス1130、入力インタフェース1060などの入力装置、スキャナなどの読取装置1140、およびレーザプリンタなどの印刷装置1150を備えており、通常のコンピュータを利用したハードウェア構成となっている。
(Hardware configuration etc.)
FIG. 21 is a hardware configuration diagram of the image forming apparatus according to the embodiment. The
本実施形態の画像形成装置で実行される画像形成プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されて提供される。 An image forming program executed by the image forming apparatus of the present embodiment is a file in an installable or executable format, such as a CD-ROM, a flexible disk (FD), a CD-R, a DVD (Digital Versatile Disk), or the like. The program is provided by being recorded on a computer-readable recording medium.
また、本実施形態の画像形成装置で実行される画像形成プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。また、本実施形態の画像形成装置で実行される画像形成プログラムをインターネット等のネットワーク経由で提供または配布するように構成しても良い。 Further, the image forming program executed by the image forming apparatus of the present embodiment may be provided by being stored on a computer connected to a network such as the Internet and downloaded via the network. The image forming program executed by the image forming apparatus according to the present embodiment may be provided or distributed via a network such as the Internet.
また、本実施形態の画像形成プログラムを、ROM等に予め組み込んで提供するように構成してもよい。 Further, the image forming program of the present embodiment may be provided by being incorporated in advance in a ROM or the like.
本実施の形態の画像形成装置で実行される画像形成プログラムは、上述した各部(画像処理部13、操作表示制御部151、システム制御部16、および通信制御部17を含むモジュール構成となっており、実際のハードウェアとしてはCPU1010が上記記憶媒体から画像形成プログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ、画像処理部13、操作表示制御部151、システム制御部16、通信制御部17、画像解析部81,および関連機能検索部82が主記憶装置上に生成されるようになっている。
The image forming program executed by the image forming apparatus according to the present embodiment has a module configuration including the above-described units (the
本実施形態の画像形成装置で実行される画像形成プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。 An image forming program executed by the image forming apparatus of the present embodiment is a file in an installable or executable format, such as a CD-ROM, a flexible disk (FD), a CD-R, a DVD (Digital Versatile Disk), or the like. You may comprise so that it may record and provide on a computer-readable recording medium.
さらに、本実施形態の画像形成装置で実行される画像形成プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。また、本実施形態の画像形成装置で実行される画像形成プログラムをインターネット等のネットワーク経由で提供または配布するように構成しても良い。 Furthermore, the image forming program executed by the image forming apparatus of the present embodiment may be provided by being stored on a computer connected to a network such as the Internet and downloaded via the network. The image forming program executed by the image forming apparatus according to the present embodiment may be provided or distributed via a network such as the Internet.
本発明は、画像形成技術、および画像処理技術に有用であり、特に多機能を有する複合機における画像形成技術、および画像処理技術に有用である。 The present invention is useful for an image forming technique and an image processing technique, and particularly useful for an image forming technique and an image processing technique in a multi-function multifunction peripheral.
11 スキャナ
111 ADF
112 スキャナコントローラ
12 画像記憶部
13 画像処理部
131 空間項目識別部
132 言語項目識別部
133 処理項目設定部
134 画面情報生成部
14 プリンタ
141 仕上げ処理部
142 プリンタコントローラ
15 操作表示部
15a マイク
15b タッチパネル
15c 表示パネル
151 操作表示制御部
16 システム制御部
18 ネットワーク
81 画像解析部
82 関連機能検索部
821 関連機能対応表
112
Claims (31)
前記予想画像の予想画像情報を生成する予想画像情報生成手段と、
前記予想画像情報生成手段によって生成された予想画像情報に基づいて前記予想画像を表示する表示手段と、
前記予想画像を表示する表示手段への、前記操作者の指先およびスタイラスの少なくともいずれかを含む接触物の接触により、前記予想画像に関する空間情報を取得し空間的な設定である空間指示項目を識別する空間項目識別手段と、
音声情報を受け付けて受け付けた前記音声情報から言語を介する設定である言語指示項目を識別する言語項目識別手段と、
前記空間項目識別手段により識別された空間指示項目および前記言語項目識別手段によって識別された言語指示項目の中から選択して、前記画像形成の処理項目を設定する設定手段と、
を備えたことを特徴とする画像形成装置。 An image forming apparatus that inputs image data, displays an expected image after image data processing and print finishing processing, and receives setting of processing items for image formation from an operator,
Predicted image information generating means for generating predicted image information of the predicted image;
Display means for displaying the predicted image based on the predicted image information generated by the predicted image information generating means;
Spatial information related to the predicted image is obtained by contact of a contact object including at least one of the fingertip of the operator and a stylus on the display unit that displays the predicted image, and a spatial indication item that is a spatial setting is identified. Spatial item identification means to
Language item identifying means for receiving language information and identifying language instruction items that are settings via language from the received speech information;
A setting unit configured to select the space instruction item identified by the space item identification unit and the language instruction item identified by the language item identification unit, and set the processing item for image formation;
An image forming apparatus comprising:
前記表示手段は、前記予想画像情報生成手段によって生成された予想画像情報に基づいて前記予想画像を表示するものであることを特徴とする請求項1に記載の画像形成装置。 The predicted image information generating unit generates predicted image information based on the processing items of the image formation set by the setting unit,
The image forming apparatus according to claim 1, wherein the display unit is configured to display the predicted image based on the predicted image information generated by the predicted image information generating unit.
前記設定手段は、前記設定項目記憶手段によって記憶された前記空間指示項目および言語指示項目の少なくともいずれかを参照して、前記画像形成の処理項目を設定するものであることを特徴とする請求項1または2に記載の画像形成装置。 A setting item storage means for storing the space instruction item and the language instruction item in association with each other;
2. The image forming processing item according to claim 1, wherein the setting unit sets the image forming processing item with reference to at least one of the space instruction item and the language instruction item stored by the setting item storage unit. The image forming apparatus according to 1 or 2.
前記言語項目識別手段は、前記操作者の発話による音声を受け付けて言語指示項目を識別するものであり、
前記設定手段は、前記空間指示項目および前記言語指示項目の中から選択して前記画像形成の処理項目を設定するものであることを特徴とする請求項1〜3のいずれか1つに記載の画像形成装置。 The space item identification means is for identifying space instruction items by acquiring space information including at least one of a position, a direction, and a region where the contact object contacts the image of the display means,
The language item identifying means is for identifying a language instruction item by receiving a voice by the operator's utterance,
The said setting means selects from the said space instruction | indication item and the said language instruction | indication item, and sets the processing item of the said image formation, The any one of Claims 1-3 characterized by the above-mentioned. Image forming apparatus.
前記空間項目識別手段は、前記タッチパネル上で前記接触物が接触することにより前記空間情報を取得し、前記空間指示項目を識別するものであることを特徴とする請求項1〜4のいずれか1つに記載の画像形成装置。 The display means has a touch panel for displaying the predicted image,
5. The space item identifying unit is configured to acquire the space information when the contact object comes in contact with the touch panel to identify the space instruction item. The image forming apparatus described in 1.
前記言語項目識別手段は、前記言語指示項目に対する確実度の情報である言語確実度を識別し、
前記設定手段は、識別された前記空間確実度および言語確実度に基づいて、前記画像形成の処理項目を設定するものであることを特徴とする請求項1〜9のいずれか1つに記載の画像形成装置。 The space item identifying means identifies space certainty that is information of certainty for the space indicating item,
The language item identifying means identifies language certainty that is information of certainty for the language instruction item;
The said setting means sets the process item of the said image formation based on the identified said space certainty and language certainty, The any one of Claims 1-9 characterized by the above-mentioned. Image forming apparatus.
前記設定手段は、前記空間指示項目、言語指示項目、および決定された前記項目関連度に基づいて前記画像形成の処理項目を設定するものであることを特徴とする請求項10に記載の画像形成装置。 The setting means determines an item relevance level, which is information on a relevance level between the space instruction item and the language instruction item,
The image forming apparatus according to claim 10, wherein the setting unit sets the image forming processing item based on the space instruction item, the language instruction item, and the determined item relevance. apparatus.
前記予想画像情報生成手段は、前記画像解析手段によって抽出された原稿特性値に基づいて前記予想画像情報を生成するものであることを特徴とする請求項1〜12のいずれか1つに記載の画像形成装置。 Image analysis means for analyzing the input image data and extracting document characteristic values;
The predicted image information generation unit generates the predicted image information based on a document characteristic value extracted by the image analysis unit. Image forming apparatus.
前記予想画像の予想画像情報を生成する予想画像情報生成工程と、
前記予想画像情報生成工程において生成された予想画像情報に基づいて前記予想画像を表示する表示工程と、
前記表示工程において表示された予想画像に対して、前記操作者の指先およびスタイラスの少なくともいずれかを含む接触物の接触により前記予想画像に関する空間情報を取得して、空間的な設定である空間指示項目を識別する空間項目識別工程と、
音声情報を受け付けて受け付けた前記音声情報から言語を介する設定である言語指示項目を識別する言語項目識別工程と、
前記空間項目識別工程において識別された空間指示項目および前記言語項目識別工程において識別された言語指示項目の中から選択して、前記画像形成の処理項目を設定する設定工程と、
を含むことを特徴とする画像形成方法。 An image forming method for inputting image data, displaying an expected image after image data processing and print finishing processing, and accepting setting of processing items for image formation from an operator,
A predicted image information generation step of generating predicted image information of the predicted image;
A display step of displaying the predicted image based on the predicted image information generated in the predicted image information generating step;
Spatial information that is a spatial setting by acquiring spatial information regarding the predicted image by contacting a predicted object displayed in the display step with a contact object including at least one of the fingertip of the operator and a stylus. Spatial item identification process for identifying items;
A language item identifying step for identifying a language instruction item which is a setting via language from the received voice information by receiving voice information;
A setting step for setting the image formation processing item by selecting from the space instruction item identified in the space item identification step and the language instruction item identified in the language item identification step;
An image forming method comprising:
前記表示工程は、前記予想画像情報生成工程において生成された予想画像情報に基づいて前記予想画像を表示するものであることを特徴とする請求項14に記載の画像形成方法。 The predicted image information generation step is to generate predicted image information based on the image formation processing items set in the setting step,
15. The image forming method according to claim 14, wherein the display step displays the predicted image based on the predicted image information generated in the predicted image information generation step.
前記設定工程は、前記設定項目記憶工程において記憶された前記空間指示項目および言語指示項目の少なくともいずれかを参照して、前記画像形成の処理項目を設定するものであることを特徴とする請求項14または15に記載の画像形成方法。 A setting item storing step of storing the space instruction item and the language instruction item in association with each other;
The image forming process item is set in the setting step with reference to at least one of the space instruction item and the language instruction item stored in the setting item storage step. The image forming method according to 14 or 15.
前記言語項目識別工程は、前記操作者の発話による音声を受け付けて言語指示項目を識別するものであり、
前記設定工程は、前記空間指示項目および前記言語指示項目の中から選択して前記画像形成の処理項目を設定するものであることを特徴とする請求項14〜16のいずれか1つに記載の画像形成方法。 The space item identification step is to identify a space instruction item by acquiring space information including at least one of a position, a direction, and a region where the contact object contacts an image obtained by the display step.
The language item identification step is to identify a language instruction item by receiving a voice by the operator's utterance,
17. The method according to claim 14, wherein the setting step is to select a processing item for image formation by selecting from the space instruction item and the language instruction item. Image forming method.
前記言語項目識別工程は、前記言語指示項目に対する確実度の情報である言語確実度を識別し、
前記設定工程は、識別された前記空間確実度および言語確実度に基づいて、前記画像形成の処理項目を設定するものであることを特徴とする請求項14〜20のいずれか1つに記載の画像形成方法。 The space item identifying step identifies space certainty that is information of certainty for the space indicating item,
The language item identifying step identifies language certainty that is information of certainty for the language instruction item,
The said setting process sets the process item of the said image formation based on the identified said space certainty and language certainty, The one of Claims 14-20 characterized by the above-mentioned. Image forming method.
前記設定工程は、前記空間指示項目、言語指示項目、および決定された前記項目関連度に基づいて前記画像形成の処理項目を設定するものであることを特徴とする請求項21に記載の画像形成方法。 The setting step is to determine an item relevance level that is information on a relevance level between the space instruction item and the language instruction item.
The image formation according to claim 21, wherein the setting step sets the processing items for the image formation based on the space instruction item, the language instruction item, and the determined item relevance. Method.
前記予想画像情報生成工程は、前記画像解析工程において抽出された原稿特性値に基づいて前記予想画像情報を生成するものであることを特徴とする請求項14〜23のいずれか1つに記載の画像形成方法。 An image analysis step of analyzing the input image data and extracting a document characteristic value;
24. The predicted image information generation step generates the predicted image information based on the document characteristic value extracted in the image analysis step. Image forming method.
前記予想画像の予想画像情報を生成する予想画像情報生成手段と、
前記予想画像情報生成手段によって生成された予想画像情報に基づいて前記予想画像を表示する表示手段と、
前記予想画像を表示する表示手段への、前記操作者の指先およびスタイラスの少なくともいずれかを含む接触物の接触により、前記予想画像に関する空間情報を取得し空間的な設定である空間指示項目を識別する空間項目識別手段と、
音声情報を受け付けて受け付けた前記音声情報から言語を介する設定である言語指示項目を識別する言語項目識別手段と、
前記空間項目識別手段により識別された空間指示項目および前記言語項目識別手段によって識別された言語指示項目の中から選択して、前記画像形成の処理項目を設定する設定手段と、
を備えたことを特徴とする画像処理装置。 An image processing apparatus in an image forming apparatus that inputs image data, displays an expected image after image data processing and print finishing processing, and receives setting of processing items for image formation from an operator,
Predicted image information generating means for generating predicted image information of the predicted image;
Display means for displaying the predicted image based on the predicted image information generated by the predicted image information generating means;
Spatial information related to the predicted image is obtained by contact of a contact object including at least one of the fingertip of the operator and a stylus on the display unit that displays the predicted image, and a spatial indication item that is a spatial setting is identified. Spatial item identification means to
Language item identifying means for receiving language information and identifying language instruction items that are settings via language from the received speech information;
A setting unit configured to select the space instruction item identified by the space item identification unit and the language instruction item identified by the language item identification unit, and set the processing item for image formation;
An image processing apparatus comprising:
前記表示手段は、前記予想画像情報生成手段によって生成された予想画像情報に基づいて前記予想画像を表示するものであることを特徴とする請求項26に記載の画像処理装置。 The predicted image information generating unit generates predicted image information based on the processing items of the image formation set by the setting unit,
27. The image processing apparatus according to claim 26, wherein the display unit is configured to display the predicted image based on the predicted image information generated by the predicted image information generating unit.
前記設定手段は、前記設定項目記憶手段によって記憶された前記空間指示項目および言語指示項目の少なくともいずれかを参照して、前記画像形成の処理項目を設定するものであることを特徴とする請求項26または27に記載の画像処理装置。 A setting item storage means for storing the space instruction item and the language instruction item in association with each other;
2. The image forming processing item according to claim 1, wherein the setting unit sets the image forming processing item with reference to at least one of the space instruction item and the language instruction item stored by the setting item storage unit. The image processing apparatus according to 26 or 27.
前記予想画像の予想画像情報を生成する予想画像情報生成手段と、
前記予想画像情報生成手段によって生成された予想画像情報に基づいて前記予想画像を表示する表示手段と、
前記予想画像を表示する表示手段への、前記操作者の指先およびスタイラスの少なくともいずれかを含む接触物の接触により、前記予想画像に関する空間情報を取得し空間的な設定である空間指示項目を識別する空間項目識別手段と、
音声情報を受け付けて受け付けた前記音声情報から言語を介する設定である言語指示項目を識別する言語項目識別手段と、
前記空間項目識別手段により識別された空間指示項目および前記言語項目識別手段によって識別された言語指示項目の中から選択して、前記画像形成の処理項目を設定する設定手段と、
を備えたことを特徴とする画像処理システム。 An image processing system that is connected to a network, displays image data processing and an expected image after print finishing processing by inputting image data, and accepts setting of processing items for image formation from an operator, two of each The above is connected to the network,
Predicted image information generating means for generating predicted image information of the predicted image;
Display means for displaying the predicted image based on the predicted image information generated by the predicted image information generating means;
Spatial information related to the predicted image is obtained by contact of a contact object including at least one of the fingertip of the operator and a stylus on the display unit that displays the predicted image, and a spatial indication item that is a spatial setting is identified. Spatial item identification means to
Language item identifying means for receiving language information and identifying language instruction items that are settings via language from the received speech information;
A setting unit configured to select the space instruction item identified by the space item identification unit and the language instruction item identified by the language item identification unit, and set the processing item for image formation;
An image processing system comprising:
前記表示手段は、前記予想画像情報生成手段によって生成された予想画像情報に基づいて前記予想画像を表示するものであることを特徴とする請求項29に記載の画像処理システム。 The predicted image information generating unit generates predicted image information based on the processing items of the image formation set by the setting unit,
30. The image processing system according to claim 29, wherein the display unit displays the predicted image based on the predicted image information generated by the predicted image information generating unit.
前記設定手段は、前記設定項目記憶手段によって記憶された前記空間指示項目および言語指示項目の少なくともいずれかを参照して、前記画像形成の処理項目を設定するものであることを特徴とする請求項29または30に記載の画像処理システム。 A setting item storage unit connected to the network and storing the space instruction item and the language instruction item in association with each other;
2. The image forming processing item according to claim 1, wherein the setting unit sets the image forming processing item with reference to at least one of the space instruction item and the language instruction item stored by the setting item storage unit. The image processing system according to 29 or 30.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004268846A JP4520262B2 (en) | 2004-09-15 | 2004-09-15 | Image forming apparatus, image forming method, program for causing computer to execute the method, image processing apparatus, and image processing system |
US11/153,911 US7528990B2 (en) | 2004-06-16 | 2005-06-16 | Image-forming system with improved workability by displaying image finish and setting items in course of processing |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004268846A JP4520262B2 (en) | 2004-09-15 | 2004-09-15 | Image forming apparatus, image forming method, program for causing computer to execute the method, image processing apparatus, and image processing system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006086755A true JP2006086755A (en) | 2006-03-30 |
JP4520262B2 JP4520262B2 (en) | 2010-08-04 |
Family
ID=36164900
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004268846A Expired - Fee Related JP4520262B2 (en) | 2004-06-16 | 2004-09-15 | Image forming apparatus, image forming method, program for causing computer to execute the method, image processing apparatus, and image processing system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4520262B2 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8542198B2 (en) | 2009-08-24 | 2013-09-24 | Xerox Corporation | Multi-touch input actual-size display screen for scanned items |
JP2013222229A (en) * | 2012-04-12 | 2013-10-28 | Konica Minolta Inc | Input operation device, image forming apparatus including the device, input operation method, and input operation program |
JP2020049666A (en) * | 2018-09-21 | 2020-04-02 | ブラザー工業株式会社 | Printer |
JP2020088830A (en) * | 2018-11-30 | 2020-06-04 | 株式会社リコー | Information processing system, program, and information processing method |
JP2020166729A (en) * | 2019-03-29 | 2020-10-08 | 京セラドキュメントソリューションズ株式会社 | Display control device, display control method, and display control program |
Citations (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6237734A (en) * | 1985-08-12 | 1987-02-18 | Matsushita Electric Ind Co Ltd | Instruction selector |
JPS62247452A (en) * | 1986-04-19 | 1987-10-28 | Casio Comput Co Ltd | Word processor with format setting function |
JPH06284274A (en) * | 1993-03-25 | 1994-10-07 | Toshiba Corp | Picture processor |
JPH08279884A (en) * | 1995-02-08 | 1996-10-22 | Ricoh Co Ltd | Image forming device |
JPH09114492A (en) * | 1995-10-23 | 1997-05-02 | Denso Corp | Speech recognizing device |
JP2775670B2 (en) * | 1994-12-16 | 1998-07-16 | カシオ計算機株式会社 | Document processing device |
JPH11149470A (en) * | 1997-11-18 | 1999-06-02 | Fujitsu Ltd | Information processor and storage medium |
JPH11334493A (en) * | 1998-05-25 | 1999-12-07 | Fujikura Ltd | Input system for automobile |
JP2000089889A (en) * | 1998-09-14 | 2000-03-31 | Sharp Corp | Input display device |
JP2000200275A (en) * | 1999-01-07 | 2000-07-18 | Hitachi Ltd | Translating device and recording medium |
JP2000203356A (en) * | 1999-01-12 | 2000-07-25 | Fujikura Ltd | Input device for automobile |
JP2000209378A (en) * | 1999-01-20 | 2000-07-28 | Ricoh Co Ltd | Image forming device |
JP2001042890A (en) * | 1999-07-30 | 2001-02-16 | Toshiba Tec Corp | Voice recognizing device |
JP2001268669A (en) * | 2000-03-21 | 2001-09-28 | Ricoh Co Ltd | Device and method for equipment control using mobile telephone terminal and recording medium |
JP2001278535A (en) * | 2000-03-30 | 2001-10-10 | Konica Corp | Image forming device |
JP2001285534A (en) * | 2000-03-30 | 2001-10-12 | Canon Inc | Image-forming device and its image read condition setting method |
JP2001282410A (en) * | 2000-03-31 | 2001-10-12 | Sharp Corp | Input display device |
JP2002328766A (en) * | 2001-04-27 | 2002-11-15 | Nippon Telegr & Teleph Corp <Ntt> | Keyboardless input device and its method and program for executing the same method and its recording medium |
JP2003005471A (en) * | 2001-06-20 | 2003-01-08 | Fuji Xerox Co Ltd | Preview display device as well as form treating equipment and method for the same |
JP3406766B2 (en) * | 1996-02-09 | 2003-05-12 | 株式会社リコー | Image forming device |
JP2003195885A (en) * | 2001-12-25 | 2003-07-09 | Canon Inc | Communication device and its control method |
JP2003233491A (en) * | 2002-02-08 | 2003-08-22 | Konica Corp | System for print processing, and program |
JP2004012809A (en) * | 2002-06-06 | 2004-01-15 | Canon Inc | Sound recognition device and control method therefor |
JP2004062517A (en) * | 2002-07-29 | 2004-02-26 | Nec Corp | Voice controller, voice control method and program |
JP2004102632A (en) * | 2002-09-09 | 2004-04-02 | Ricoh Co Ltd | Voice recognition device and image processor |
JP2004145469A (en) * | 2002-10-22 | 2004-05-20 | Canon Inc | Data input device and data input method |
JP2004248057A (en) * | 2003-02-14 | 2004-09-02 | Ricoh Co Ltd | Image forming device |
JP2005242371A (en) * | 2005-03-10 | 2005-09-08 | Ricoh Co Ltd | Device and method for speech recognition |
JP2006003568A (en) * | 2004-06-16 | 2006-01-05 | Ricoh Co Ltd | Image forming apparatus, image forming method, program for making computer execute the method, image processing system and image processing apparatus |
JP2006067235A (en) * | 2004-08-26 | 2006-03-09 | Ricoh Co Ltd | Device and method for forming image, program carrying out its method by computer, image processor, and image processing system |
-
2004
- 2004-09-15 JP JP2004268846A patent/JP4520262B2/en not_active Expired - Fee Related
Patent Citations (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6237734A (en) * | 1985-08-12 | 1987-02-18 | Matsushita Electric Ind Co Ltd | Instruction selector |
JPS62247452A (en) * | 1986-04-19 | 1987-10-28 | Casio Comput Co Ltd | Word processor with format setting function |
JPH06284274A (en) * | 1993-03-25 | 1994-10-07 | Toshiba Corp | Picture processor |
JP2775670B2 (en) * | 1994-12-16 | 1998-07-16 | カシオ計算機株式会社 | Document processing device |
JPH08279884A (en) * | 1995-02-08 | 1996-10-22 | Ricoh Co Ltd | Image forming device |
JPH09114492A (en) * | 1995-10-23 | 1997-05-02 | Denso Corp | Speech recognizing device |
JP3406766B2 (en) * | 1996-02-09 | 2003-05-12 | 株式会社リコー | Image forming device |
JPH11149470A (en) * | 1997-11-18 | 1999-06-02 | Fujitsu Ltd | Information processor and storage medium |
JPH11334493A (en) * | 1998-05-25 | 1999-12-07 | Fujikura Ltd | Input system for automobile |
JP2000089889A (en) * | 1998-09-14 | 2000-03-31 | Sharp Corp | Input display device |
JP2000200275A (en) * | 1999-01-07 | 2000-07-18 | Hitachi Ltd | Translating device and recording medium |
JP2000203356A (en) * | 1999-01-12 | 2000-07-25 | Fujikura Ltd | Input device for automobile |
JP2000209378A (en) * | 1999-01-20 | 2000-07-28 | Ricoh Co Ltd | Image forming device |
JP2001042890A (en) * | 1999-07-30 | 2001-02-16 | Toshiba Tec Corp | Voice recognizing device |
JP2001268669A (en) * | 2000-03-21 | 2001-09-28 | Ricoh Co Ltd | Device and method for equipment control using mobile telephone terminal and recording medium |
JP2001278535A (en) * | 2000-03-30 | 2001-10-10 | Konica Corp | Image forming device |
JP2001285534A (en) * | 2000-03-30 | 2001-10-12 | Canon Inc | Image-forming device and its image read condition setting method |
JP2001282410A (en) * | 2000-03-31 | 2001-10-12 | Sharp Corp | Input display device |
JP2002328766A (en) * | 2001-04-27 | 2002-11-15 | Nippon Telegr & Teleph Corp <Ntt> | Keyboardless input device and its method and program for executing the same method and its recording medium |
JP2003005471A (en) * | 2001-06-20 | 2003-01-08 | Fuji Xerox Co Ltd | Preview display device as well as form treating equipment and method for the same |
JP2003195885A (en) * | 2001-12-25 | 2003-07-09 | Canon Inc | Communication device and its control method |
JP2003233491A (en) * | 2002-02-08 | 2003-08-22 | Konica Corp | System for print processing, and program |
JP2004012809A (en) * | 2002-06-06 | 2004-01-15 | Canon Inc | Sound recognition device and control method therefor |
JP2004062517A (en) * | 2002-07-29 | 2004-02-26 | Nec Corp | Voice controller, voice control method and program |
JP2004102632A (en) * | 2002-09-09 | 2004-04-02 | Ricoh Co Ltd | Voice recognition device and image processor |
JP2004145469A (en) * | 2002-10-22 | 2004-05-20 | Canon Inc | Data input device and data input method |
JP2004248057A (en) * | 2003-02-14 | 2004-09-02 | Ricoh Co Ltd | Image forming device |
JP2006003568A (en) * | 2004-06-16 | 2006-01-05 | Ricoh Co Ltd | Image forming apparatus, image forming method, program for making computer execute the method, image processing system and image processing apparatus |
JP2006067235A (en) * | 2004-08-26 | 2006-03-09 | Ricoh Co Ltd | Device and method for forming image, program carrying out its method by computer, image processor, and image processing system |
JP2005242371A (en) * | 2005-03-10 | 2005-09-08 | Ricoh Co Ltd | Device and method for speech recognition |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8542198B2 (en) | 2009-08-24 | 2013-09-24 | Xerox Corporation | Multi-touch input actual-size display screen for scanned items |
JP2013222229A (en) * | 2012-04-12 | 2013-10-28 | Konica Minolta Inc | Input operation device, image forming apparatus including the device, input operation method, and input operation program |
JP2020049666A (en) * | 2018-09-21 | 2020-04-02 | ブラザー工業株式会社 | Printer |
JP7148886B2 (en) | 2018-09-21 | 2022-10-06 | ブラザー工業株式会社 | printer |
JP2020088830A (en) * | 2018-11-30 | 2020-06-04 | 株式会社リコー | Information processing system, program, and information processing method |
JP7151428B2 (en) | 2018-11-30 | 2022-10-12 | 株式会社リコー | Information processing system, program and information processing method |
JP2020166729A (en) * | 2019-03-29 | 2020-10-08 | 京セラドキュメントソリューションズ株式会社 | Display control device, display control method, and display control program |
JP7268449B2 (en) | 2019-03-29 | 2023-05-08 | 京セラドキュメントソリューションズ株式会社 | Display control device, display control method, and display control program |
Also Published As
Publication number | Publication date |
---|---|
JP4520262B2 (en) | 2010-08-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7528990B2 (en) | Image-forming system with improved workability by displaying image finish and setting items in course of processing | |
JP7367750B2 (en) | Image processing device, image processing device control method, and program | |
JP4817851B2 (en) | Image forming apparatus, image forming system, image forming method, and program for causing computer to execute the method | |
JP2006003568A (en) | Image forming apparatus, image forming method, program for making computer execute the method, image processing system and image processing apparatus | |
US20200249883A1 (en) | Image forming apparatus, image forming system, and information processing method | |
US10810383B2 (en) | Image processing apparatus for comparing documents in different languages | |
JP2018046416A (en) | Information processing device and program | |
JP2006041947A (en) | Image-forming apparatus, image forming method, and program for executing the method by computer | |
JP2019109628A5 (en) | ||
JP4520262B2 (en) | Image forming apparatus, image forming method, program for causing computer to execute the method, image processing apparatus, and image processing system | |
JP2008197229A (en) | Speech recognition dictionary construction device and program | |
JP4768274B2 (en) | Image forming apparatus, image forming method, and program for causing computer to execute the method | |
US10902223B2 (en) | Image processing apparatus | |
JP2011193139A (en) | Image forming apparatus | |
JP2006067235A (en) | Device and method for forming image, program carrying out its method by computer, image processor, and image processing system | |
JP2008236168A (en) | Image processor, and processing condition setting method and program | |
JP2009048293A (en) | Information processing system, information processing execution program and image processor | |
JP2019109629A5 (en) | ||
JP2009026075A (en) | Image processing device | |
JP2007124045A (en) | Image forming apparatus | |
JP2006133880A (en) | Information processor and information processing method | |
JP2007048061A (en) | Character processing device, character processing method, and recording medium | |
JP2020181044A (en) | Information processor, control method of the same and program | |
US11849086B2 (en) | Image processing apparatus capable of extracting portion of document image specified by preset index and subjecting character string in extracted portion to processing associated with index | |
JP7081451B2 (en) | Setting control device, control method of setting control device, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070824 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090825 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090908 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20091109 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20091201 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100128 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100223 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100421 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100518 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100520 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130528 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140528 Year of fee payment: 4 |
|
LAPS | Cancellation because of no payment of annual fees |