JP2020015218A - Image formation device, and image formation system - Google Patents

Image formation device, and image formation system Download PDF

Info

Publication number
JP2020015218A
JP2020015218A JP2018139288A JP2018139288A JP2020015218A JP 2020015218 A JP2020015218 A JP 2020015218A JP 2018139288 A JP2018139288 A JP 2018139288A JP 2018139288 A JP2018139288 A JP 2018139288A JP 2020015218 A JP2020015218 A JP 2020015218A
Authority
JP
Japan
Prior art keywords
language
input
job
control unit
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018139288A
Other languages
Japanese (ja)
Inventor
高原 正和
Masakazu Takahara
正和 高原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Document Solutions Inc
Original Assignee
Kyocera Document Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Document Solutions Inc filed Critical Kyocera Document Solutions Inc
Priority to JP2018139288A priority Critical patent/JP2020015218A/en
Publication of JP2020015218A publication Critical patent/JP2020015218A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide an image formation device which can suppress a reduction in convenience of a user.SOLUTION: An image formation device 100 includes a voice input part 23, a notification part 211, a control part 10 and a storage part 9. An instruction of execution of a first job is input to the voice input part 23 by voice. The control part 10 analyzes input voice input to the voice input part 23, and acquires an input language indicating a language of the input voice. The storage part 9 stores data indicating a set language. The control part 10 associates the first job with the input language, and stores them in the storage part 9. The control part 10 determines the input language as a used language used by the notification part 211 until the first job is completed after the instruction of the execution of the first job has been received. When the first job is completed, the control part 10 determines the set language as the used language.SELECTED DRAWING: Figure 2

Description

本発明は、画像形成装置、及び画像形成システムに関する。   The present invention relates to an image forming apparatus and an image forming system.

近年、ユーザーの音声を認識してジョブを受け付ける画像形成装置が開示されている。例えば、特許文献1には、操作パネルと、ジョブ装置本体と、テレビモニターとを備える印刷装置が開示されている。操作パネルは、音声が入力されるマイクを内蔵する。テレビモニターは、操作ガイドや動作状況等を所定の言語で表示する。操作パネル及びテレビモニターに表示される言語は、ユーザーが発する入力音声に応じて切り替わる。   In recent years, an image forming apparatus that recognizes a user's voice and receives a job has been disclosed. For example, Patent Document 1 discloses a printing device including an operation panel, a job device main body, and a television monitor. The operation panel has a built-in microphone to which sound is input. The television monitor displays operation guides, operating conditions, and the like in a predetermined language. The language displayed on the operation panel and the television monitor switches according to the input voice uttered by the user.

特開2003−044074号公報JP 2003-044074 A

しかしながら、特許文献1に開示の画像形成装置では、ジョブが終了したか否かに関わらず、入力音声に基づいて操作パネル等に表示される言語が切り替わる。このため、例えば、ジョブの実行中に、別の言語を使用するユーザーが発する音声に応じて操作パネル等に表示される言語が切り替わる場合がある。操作パネル等に表示される言語が切り替わると、実行中のジョブを要求したユーザーは、操作パネル等に表示される言語の内容が理解できない可能性がある。この結果、ユーザーの利便性が低下する可能性がある。   However, in the image forming apparatus disclosed in Patent Literature 1, the language displayed on the operation panel or the like is switched based on the input voice regardless of whether or not the job is completed. For this reason, for example, during execution of a job, the language displayed on the operation panel or the like may be switched according to a voice uttered by a user who uses another language. When the language displayed on the operation panel or the like is switched, the user who has requested the job being executed may not understand the contents of the language displayed on the operation panel or the like. As a result, user convenience may be reduced.

本発明は、上記課題に鑑み、ユーザーの利便性の低下を抑制することができる画像形成装置及び画像形成システムを提供することを目的とする。   The present invention has been made in view of the above circumstances, and has as its object to provide an image forming apparatus and an image forming system that can suppress a decrease in user convenience.

本発明に係る画像形成装置は、音声入力部と、通知部と、制御部と、記憶部とを備える。前記音声入力部には、第1ジョブの実行の指示が音声によって入力される。前記通知部は、使用言語を使用してメッセージを通知する。前記制御部は、前記音声入力部に入力された入力音声を解析し、前記入力音声の言語を示す入力言語を取得する。前記記憶部は、設定言語を示すデータを記憶する。前記制御部は、前記第1ジョブと前記入力言語とを関連付けて前記記憶部に記憶させる。前記制御部は、前記第1ジョブの実行の指示を受け付けてから、前記第1ジョブが完了するまでの間、前記使用言語として前記入力言語を決定する。前記制御部は、前記第1ジョブが完了すると、前記使用言語を前記設定言語に変更する。前記制御部は、前記第1ジョブが完了すると、前記使用言語として前記設定言語を決定する。   An image forming apparatus according to the present invention includes a voice input unit, a notification unit, a control unit, and a storage unit. An instruction to execute the first job is input to the voice input unit by voice. The notification unit notifies a message using a language used. The control unit analyzes an input voice input to the voice input unit and acquires an input language indicating a language of the input voice. The storage unit stores data indicating a set language. The control unit stores the first job and the input language in the storage unit in association with each other. The control unit determines the input language as the language to be used during a period from receiving an instruction to execute the first job to completing the first job. When the first job is completed, the control unit changes the language to be used to the set language. When the first job is completed, the control unit determines the set language as the language to be used.

本発明に係る画像形成システムは、音声入力部と、通知部と、制御部と、記憶部とを備える。前記音声入力部には、ジョブの実行の指示が音声によって入力される。前記通知部は、使用言語を使用してメッセージを通知する。前記制御部は、前記音声入力部に入力された入力音声を解析し、前記入力音声の言語を示す入力言語を取得する。前記記憶部は、設定言語を示すデータを記憶する。前記制御部は、前記ジョブと前記入力言語とを関連付けて前記記憶部に記憶させる。前記制御部は、前記ジョブの実行の指示を受け付けてから、前記ジョブが完了するまでの間、前記使用言語として前記入力言語を決定する。前記制御部は、前記ジョブが完了すると、前記使用言語として前記設定言語を決定する。   An image forming system according to the present invention includes a voice input unit, a notification unit, a control unit, and a storage unit. An instruction to execute a job is input by voice to the voice input unit. The notification unit notifies a message using a language used. The control unit analyzes an input voice input to the voice input unit and acquires an input language indicating a language of the input voice. The storage unit stores data indicating a set language. The control unit associates the job with the input language and stores the input language in the storage unit. The control unit determines the input language as the language to be used until the job is completed after receiving the instruction to execute the job. When the job is completed, the control unit determines the set language as the language to be used.

本発明の画像形成装置及び画像形成システムによれば、ユーザーの利便性の低下を抑制することができる。   According to the image forming apparatus and the image forming system of the present invention, it is possible to suppress a decrease in user convenience.

本発明の実施形態1に係る画像形成装置の構成を示す図である。FIG. 1 is a diagram illustrating a configuration of an image forming apparatus according to a first embodiment of the present invention. 本発明の実施形態1に係る画像形成装置の構成を示すブロック図である。FIG. 1 is a block diagram illustrating a configuration of an image forming apparatus according to a first embodiment of the present invention. 本発明の実施形態1に係る第1使用言語決定処理を示すフローチャートである。5 is a flowchart illustrating a first language determination process according to the first embodiment of the present invention. (a)及び(b)は、本発明の実施形態1に係る表示画面の一例を示す図である。(A) And (b) is a figure which shows an example of the display screen concerning Embodiment 1 of this invention. 本発明の実施形態2に係る画像形成装置の構成を示すブロック図である。FIG. 9 is a block diagram illustrating a configuration of an image forming apparatus according to a second embodiment of the present invention. 本発明の実施形態2に係る第2使用言語決定処理を示すフローチャートである。It is a flowchart which shows the 2nd used language determination process which concerns on Embodiment 2 of this invention. 本発明の実施形態3に係る画像形成装置の構成を示す図である。FIG. 9 is a diagram illustrating a configuration of an image forming apparatus according to a third embodiment of the present invention. 本発明の実施形態3に係る画像形成装置の構成を示すブロック図である。FIG. 13 is a block diagram illustrating a configuration of an image forming apparatus according to a third embodiment of the present invention. 本発明の実施形態3に係る第1使用言語決定処理を示すフローチャートである。It is a flowchart which shows the 1st use language determination process which concerns on Embodiment 3 of this invention. 本発明の実施形態4に係る文書翻訳処理を示すフローチャートである。14 is a flowchart illustrating a document translation process according to the fourth embodiment of the present invention. 本発明の実施形態5に係る画像形成システムの構成を示す図である。FIG. 13 is a diagram illustrating a configuration of an image forming system according to a fifth embodiment of the present invention.

以下、図面を参照して、本発明に係る画像形成装置及び画像形成システムの実施形態について説明する。なお、図中、同一又は相当部分については同一の参照符号を付して説明を繰り返さない。   Hereinafter, an embodiment of an image forming apparatus and an image forming system according to the present invention will be described with reference to the drawings. In the drawings, the same or corresponding portions have the same reference characters allotted, and description thereof will not be repeated.

[実施形態1]
まず、図1を参照して、実施形態1に係る画像形成装置100の構成を説明する。図1は、実施形態1に係る画像形成装置100の構成を示す図である。本実施形態において、画像形成装置100は、複合機である。
[Embodiment 1]
First, the configuration of the image forming apparatus 100 according to the first embodiment will be described with reference to FIG. FIG. 1 is a diagram illustrating a configuration of the image forming apparatus 100 according to the first embodiment. In the present embodiment, the image forming apparatus 100 is a multifunction peripheral.

図1に示すように、画像形成装置100は、筐体1、操作部2、原稿搬送装置3、原稿読取装置4、給紙部5、シート搬送装置6、画像形成部7、及び排出トレイ1tを備える。排出トレイ1tは、筐体1の外部に設けられる。   As shown in FIG. 1, the image forming apparatus 100 includes a housing 1, an operation unit 2, a document transport device 3, a document reading device 4, a paper feed unit 5, a sheet transport device 6, an image forming unit 7, and a discharge tray 1t. Is provided. The discharge tray 1t is provided outside the housing 1.

操作部2は、画像形成装置100に対するユーザーからの指示を受け付ける。操作部2は、ユーザーからの指示を受け付けると、ユーザーからの指示を示す信号を出力する。本実施形態において、操作部2は、ジョブの実行の指示を受け付ける。   The operation unit 2 receives an instruction from the user for the image forming apparatus 100. When receiving an instruction from the user, the operation unit 2 outputs a signal indicating the instruction from the user. In the present embodiment, the operation unit 2 receives a job execution instruction.

操作部2は、タッチディスプレー21、ハードキー22、及びマイクロフォン23を有する。マイクロフォン23は、音声入力部の一例である。   The operation unit 2 has a touch display 21, hard keys 22, and a microphone 23. The microphone 23 is an example of a voice input unit.

タッチディスプレー21は、ディスプレー211及びタッチセンサー212を含む。ディスプレー211は、表示部及び通知部の一例である。   The touch display 21 includes a display 211 and a touch sensor 212. The display 211 is an example of a display unit and a notification unit.

ディスプレー211は、メッセージを表示する。ディスプレー211は、使用言語を使用してメッセージを表示する。ディスプレー211は、例えば、液晶ディスプレー又は有機ELディスプレー(Organic Electro Luminescence Display)である。   The display 211 displays a message. The display 211 displays a message using the language used. The display 211 is, for example, a liquid crystal display or an organic EL display (Organic Electro Luminescence Display).

タッチセンサー212は、被検知体によるタッチを検知する。タッチセンサー212は、例えば、抵抗膜方式のタッチセンサー又は静電容量方式のタッチセンサーである。   The touch sensor 212 detects a touch by the detection target. The touch sensor 212 is, for example, a resistive touch sensor or a capacitive touch sensor.

ハードキー22は、例えば、テンキー、スタートキー、及びキャンセルキーを含む。   The hard keys 22 include, for example, a numeric keypad, a start key, and a cancel key.

マイクロフォン23は、周囲で発生する音を集音することにより音の入力を受け付ける。マイクロフォン23は、入力された音を示す信号を出力する。本実施形態において、マイクロフォン23には、ユーザーの音声が入力される。以下、マイクロフォン23に入力された音声を「入力音声」と記載する。本実施形態において、ユーザーは、マイクロフォン23を介してジョブの実行を指示する。換言すると、ユーザーは、音声によってジョブの実行を指示する。以下、音声によって実行の指示が入力されるジョブを「第1ジョブ」と記載する。   The microphone 23 receives a sound input by collecting sounds generated in the surroundings. The microphone 23 outputs a signal indicating the input sound. In the present embodiment, a user's voice is input to the microphone 23. Hereinafter, the voice input to the microphone 23 is referred to as “input voice”. In the present embodiment, the user instructs execution of a job via the microphone 23. In other words, the user instructs execution of the job by voice. Hereinafter, a job to which an execution instruction is input by voice is referred to as a “first job”.

原稿搬送装置3は、原稿Dを搬送する。詳しくは、原稿搬送装置3は、原稿載置トレイ31、原稿搬送部32、及び原稿排出トレイ33を備える。原稿載置トレイ31には、少なくとも1枚の原稿Dが載置される。原稿搬送部32は、原稿載置トレイ31に載置された原稿Dを1枚ずつ原稿排出トレイ33まで搬送する。原稿Dは、読取位置Rを経由するように搬送される。読取位置Rは、原稿読取装置4が原稿Dの画像を読み取ることが可能な位置である。   The document transport device 3 transports the document D. Specifically, the document feeder 3 includes a document placing tray 31, a document feeder 32, and a document discharge tray 33. At least one document D is placed on the document placing tray 31. The document transport unit 32 transports the documents D placed on the document loading tray 31 to the document discharge tray 33 one by one. The document D is conveyed so as to pass through the reading position R. The reading position R is a position where the document reading device 4 can read the image of the document D.

原稿読取装置4は、原稿Dの画像を読み取って原稿Dの画像を示すデータを生成する。詳しくは、原稿読取装置4は、コンタクトガラス41、及び読取機構42を備える。コンタクトガラス41には、1枚の原稿Dが載置される。読取機構42は、コンタクトガラス41に載置された原稿Dの画像又は読取位置Rを通過する原稿Dの画像を読み取って、原稿Dの画像を示す信号を出力する。原稿読取装置4は、例えば、スキャナーである。   Document reading device 4 reads an image of document D and generates data indicating the image of document D. Specifically, the document reading device 4 includes a contact glass 41 and a reading mechanism 42. One original D is placed on the contact glass 41. The reading mechanism 42 reads an image of the document D placed on the contact glass 41 or an image of the document D passing through the reading position R, and outputs a signal indicating the image of the document D. The document reading device 4 is, for example, a scanner.

給紙部5は、シートSを一枚ずつ給紙する。詳しくは、給紙部5は、2つの給紙カセット51、及び2つの給紙ローラー群52を有する。   The paper feed unit 5 feeds the sheets S one by one. More specifically, the paper supply unit 5 includes two paper supply cassettes 51 and two paper supply roller groups 52.

各給紙カセット51は、複数のシートSを収容する。シートSは、例えば、用紙である。   Each paper feed cassette 51 stores a plurality of sheets S. The sheet S is, for example, a sheet.

2つの給紙ローラー群52は、2つの給紙カセット51にそれぞれ配置される。各給紙ローラー群52は、対応する給紙カセット51に収容された複数のシートSを一枚ずつ給紙する。   The two paper feed roller groups 52 are arranged on the two paper feed cassettes 51, respectively. Each paper feed roller group 52 feeds a plurality of sheets S stored in the corresponding paper feed cassette 51 one by one.

シート搬送装置6は、シートSを搬送する。詳しくは、シート搬送装置6は、ローラー及びガイド部材を備える。シート搬送装置6は、給紙部5から排出トレイ1tまでシートSを搬送する。シート搬送装置6は、画像形成部7を経由するようにシートSを搬送する。   The sheet transport device 6 transports the sheet S. Specifically, the sheet conveying device 6 includes a roller and a guide member. The sheet conveying device 6 conveys the sheet S from the sheet feeding unit 5 to the discharge tray 1t. The sheet conveying device 6 conveys the sheet S so as to pass through the image forming unit 7.

画像形成部7は、シートSに画像を形成する画像形成処理を実行する。本実施形態において、画像形成部7は、露光装置71、帯電装置72、現像装置73、感光体ドラム74、転写装置75、及び定着装置76を備え、電子写真方式によって画像を形成する。露光装置71は、感光体ドラム74を露光することにより、感光体ドラム74の表面に静電潜像を形成する。帯電装置72は、感光体ドラム74を所定の電位に均一に帯電させる。現像装置73は、感光体ドラム74にトナーを供給し、感光体ドラム74上に形成された静電潜像を現像する。定着装置76は、シートSにトナー像を定着させる。   The image forming unit 7 executes an image forming process for forming an image on the sheet S. In the present embodiment, the image forming unit 7 includes an exposure device 71, a charging device 72, a developing device 73, a photosensitive drum 74, a transfer device 75, and a fixing device 76, and forms an image by an electrophotographic method. The exposure device 71 forms an electrostatic latent image on the surface of the photoconductor drum 74 by exposing the photoconductor drum 74. The charging device 72 uniformly charges the photosensitive drum 74 to a predetermined potential. The developing device 73 supplies toner to the photosensitive drum 74 and develops the electrostatic latent image formed on the photosensitive drum 74. The fixing device 76 fixes the toner image on the sheet S.

続いて、図1及び図2を参照して、実施形態1に係る画像形成装置100の構成について更に説明する。図2は、実施形態1に係る画像形成装置100の構成を示すブロック図である。   Subsequently, the configuration of the image forming apparatus 100 according to the first embodiment will be further described with reference to FIGS. FIG. 2 is a block diagram illustrating a configuration of the image forming apparatus 100 according to the first embodiment.

図2に示すように、画像形成装置100は、記憶部9及び制御部10を更に備える。   As shown in FIG. 2, the image forming apparatus 100 further includes a storage unit 9 and a control unit 10.

記憶部9は、各種のデータを記憶する。記憶部9は、ストレージデバイス及び半導体メモリーによって構成される。ストレージデバイスは、例えば、HDD(Hard Disk Drive)及び/又はSSD(Solid State Drive)によって構成される。記憶部9は、半導体メモリーを含む。半導体メモリーは、例えば、RAM(Random Access Memory)及びROM(Read Only Memory)を構成する。   The storage unit 9 stores various data. The storage unit 9 includes a storage device and a semiconductor memory. The storage device is configured by, for example, a hard disk drive (HDD) and / or a solid state drive (SSD). The storage unit 9 includes a semiconductor memory. The semiconductor memory constitutes, for example, a RAM (Random Access Memory) and a ROM (Read Only Memory).

記憶部9は、文書ボックス領域9Bを有する。文書ボックス領域9Bには、文書データが記憶される。文書データは、例えば、原稿読取装置4が読み取った原稿Dの画像を示すデータである。   The storage unit 9 has a document box area 9B. Document data is stored in the document box area 9B. The document data is, for example, data indicating an image of the document D read by the document reading device 4.

また、記憶部9は、設定言語を示すデータを記憶する。以下、設定言語を示すデータを「設定言語データ91」と記載する場合がある。   The storage unit 9 stores data indicating the set language. Hereinafter, the data indicating the setting language may be described as “setting language data 91”.

設定言語は、例えば、管理者によって設定される。管理者は、例えば、画像形成装置100が設置される場所で広く使用される言語を設定言語として設定する。広く使用される言語は、例えば、公用語である。本実施形態において、画像形成装置100が設置される場所は、アメリカ合衆国であり、設定言語は、英語である。   The setting language is set, for example, by an administrator. The administrator sets, for example, a language widely used in a place where the image forming apparatus 100 is installed as the set language. A widely used language is, for example, the official language. In the present embodiment, the place where the image forming apparatus 100 is installed is the United States of America, and the set language is English.

制御部10は、画像形成装置100の各部の動作を制御する。制御部10は、CPU(Central Processing Unit)のようなプロセッサーを含む。また、制御部10は、画像形成処理用の集積回路を備える。画像形成処理用の集積回路は、例えば、ASIC(Application Specific Integrated Circuit)によって構成される。   The control unit 10 controls the operation of each unit of the image forming apparatus 100. The control unit 10 includes a processor such as a CPU (Central Processing Unit). Further, the control unit 10 includes an integrated circuit for image forming processing. The integrated circuit for image forming processing is configured by, for example, an ASIC (Application Specific Integrated Circuit).

続いて、図3を参照して、実施形態1に係る第1使用言語決定処理について説明する。図3は、実施形態1に係る第1使用言語決定処理を示すフローチャートである。第1使用言語決定処理は、例えば、マイクロフォン23に入力される音声のレベルが閾値以上になると開始される。   Subsequently, the first language determination process according to the first embodiment will be described with reference to FIG. FIG. 3 is a flowchart illustrating a first language determination process according to the first embodiment. The first language determination process is started, for example, when the level of the sound input to the microphone 23 becomes equal to or higher than a threshold.

図3に示すように、制御部10は、マイクロフォン23に入力される音声のレベルが閾値以上になると、既知の音声認識技術を利用して入力音声を解析する(ステップS101)。   As shown in FIG. 3, when the level of the voice input to the microphone 23 becomes equal to or higher than the threshold, the control unit 10 analyzes the input voice using a known voice recognition technology (step S101).

次いで、制御部10は、入力音声の解析の結果に基づいて、入力音声が使用する言語を取得する(ステップS102)。以下、入力言語が使用する言語を「入力言語」と記載する。例えば、ユーザーが「コピーを実行してください。」とマイクロフォン23に向けて発声すると、制御部10は、入力言語として、日本語を取得する。制御部10は、入力言語を示すデータを記憶部9に記憶させる。   Next, the control unit 10 acquires a language used by the input voice based on a result of the analysis of the input voice (Step S102). Hereinafter, the language used by the input language is referred to as “input language”. For example, when the user utters “Please execute the copy.” Into the microphone 23, the control unit 10 acquires Japanese as the input language. The control unit 10 causes the storage unit 9 to store data indicating the input language.

制御部10は、入力言語を取得すると、入力言語が設定言語と異なるか否かを判定する(ステップS103)。制御部10は、入力言語が設定言語と異ならないと判定すると(ステップS103;No)、第1使用言語決定処理を終了する。   When acquiring the input language, the control unit 10 determines whether or not the input language is different from the set language (Step S103). When the control unit 10 determines that the input language is not different from the set language (step S103; No), the first use language determination processing ends.

一方、制御部10は、入力言語が設定言語と異なると判定すると(ステップS103;Yes)、入力言語を使用言語として決定する(ステップS104)。制御部10が入力言語を使用言語として決定すると、タッチディスプレー21に表示されるメッセージ等の言語が入力言語に切り替わる。   On the other hand, if the control unit 10 determines that the input language is different from the set language (step S103; Yes), the control unit 10 determines the input language as the language to be used (step S104). When the control unit 10 determines the input language as the language to be used, the language of the message and the like displayed on the touch display 21 is switched to the input language.

次いで、制御部10は、入力音声の解析結果に基づいて、ユーザーが実行を指示するジョブ(第1ジョブ)を受け付ける(ステップS105)。例えば、制御部10は、入力音声の解析結果に基づいて、受け付けたジョブの種類を特定する。ジョブの種類は、画像形成装置100が有する複数の機能のうち、ジョブを実行する機能の種類である。ジョブを実行する機能の種類は、例えば、「コピー」、「スキャン」、「ファクス送信」、及び「文書ボックス格納」である。例えば、ユーザーが「コピーを実行してください。」と日本語で発声すると、制御部10は、ジョブの種類として「コピー」を取得する。以下、ユーザーが実行を指示するジョブを「実行対象ジョブ」と記載する場合がある。   Next, the control unit 10 receives a job (first job) for which the user instructs execution based on the analysis result of the input voice (step S105). For example, the control unit 10 specifies the type of the received job based on the analysis result of the input voice. The job type is a type of a function for executing a job among a plurality of functions of the image forming apparatus 100. The types of functions for executing a job are, for example, "copy", "scan", "send fax", and "store document box". For example, when the user utters “Please execute copy” in Japanese, the control unit 10 acquires “Copy” as the job type. Hereinafter, a job that the user instructs to execute may be referred to as an “execution target job”.

制御部10は、ジョブを受け付けると、実行対象ジョブと入力言語とを関連付ける(ステップS106)。例えば、制御部10は、実行対象ジョブを識別するための情報を示すジョブIDデータと、入力言語を示すデータとを関連付けて記憶部9に記憶させる。   When receiving the job, the control unit 10 associates the execution target job with the input language (Step S106). For example, the control unit 10 causes the storage unit 9 to store job ID data indicating information for identifying an execution target job and data indicating an input language in association with each other.

次いで、制御部10は、実行対象ジョブの条件を受け付ける(ステップS107)。ジョブの条件は、ジョブを実行するための条件である。ジョブの条件は、例えば、ジョブの種類が「コピー」である場合、「カラーモード」、「原稿サイズ」、「倍率」、及び「部数」などである。   Next, the control unit 10 receives the condition of the execution target job (Step S107). The job condition is a condition for executing the job. For example, when the job type is “copy”, the job conditions include “color mode”, “document size”, “magnification”, and “number of copies”.

制御部10は、例えば、設定画面をタッチディスプレー21に表示させる。ユーザーは、タッチディスプレー21に表示された設定画面を操作することにより、ジョブの条件を設定することができる。なお、設定画面に含まれるメッセージの言語は、入力言語である。   The control unit 10 causes the touch display 21 to display a setting screen, for example. The user can set job conditions by operating the setting screen displayed on the touch display 21. The language of the message included in the setting screen is the input language.

次いで、制御部10は、実行対象ジョブを実行する(ステップS108)。詳しくは、制御部10は、実行対象ジョブの種類及び実行対象ジョブの条件に基づいてジョブデータを生成する。制御部10は、生成したジョブデータに基づいて、画像形成装置100の各部の動作を制御する。この結果、実行対象ジョブが実行される。   Next, the control unit 10 executes the execution target job (Step S108). Specifically, the control unit 10 generates job data based on the type of the execution target job and the conditions of the execution target job. The control unit 10 controls the operation of each unit of the image forming apparatus 100 based on the generated job data. As a result, the execution target job is executed.

制御部10は、実行対象ジョブが完了すると、設定言語を使用言語として決定して(ステップS109)、第1使用言語決定処理を終了する。これにより、タッチディスプレー21に表示されるメッセージ等の言語が設定言語に切り替わる。   When the job to be executed is completed, the control unit 10 determines the set language as the language to be used (Step S109), and ends the first language determination processing. Thereby, the language of the message and the like displayed on the touch display 21 is switched to the set language.

次に、図4(a)及び図4(b)を参照して、実施形態1に係る表示画面Gについて説明する。   Next, a display screen G according to the first embodiment will be described with reference to FIGS. 4A and 4B.

図4(a)及び図4(b)は、実施形態1に係る表示画面Gの一例を示す図である。詳しくは、図4(a)は、設定言語が使用言語として決定された場合にタッチディスプレー21に表示される表示画面Gの一例を示し、図4(b)は、入力言語が使用言語として決定された場合にタッチディスプレー21に表示される表示画面Gの一例を示す。以下、図4(a)に示す表示画面Gを「第1表示画面G1」と記載し、図4(b)に示す表示画面Gを「第2表示画面G2」と記載する。なお、図4(a)及び図4(b)では、設定言語が英語であり、入力言語が日本語である。   FIGS. 4A and 4B are diagrams illustrating an example of the display screen G according to the first embodiment. 4A shows an example of a display screen G displayed on the touch display 21 when the set language is determined as the language to be used, and FIG. 4B shows the input language determined as the language to be used. 5 shows an example of a display screen G displayed on the touch display 21 when the operation is performed. Hereinafter, the display screen G shown in FIG. 4A will be described as a “first display screen G1”, and the display screen G shown in FIG. 4B will be described as a “second display screen G2”. In FIG. 4A and FIG. 4B, the set language is English and the input language is Japanese.

図4(a)に示すように、第1表示画面G1は、第1メッセージM1を含む。第1メッセージM1は、英語で表示される。具体的には、第1メッセージM1は、「Please Waiting・・・」である。   As shown in FIG. 4A, the first display screen G1 includes a first message M1. The first message M1 is displayed in English. Specifically, the first message M1 is "Please Waiting ...".

図4(b)に示すように、第2表示画面G2は、第2メッセージM2を含む。第2メッセージM2は、日本語で表示される。第2メッセージM2は、第1メッセージM1が日本語に翻訳されたメッセージである。具体的には、第2メッセージM2は、「しばらくお待ちください。」である。   As shown in FIG. 4B, the second display screen G2 includes a second message M2. The second message M2 is displayed in Japanese. The second message M2 is a message in which the first message M1 is translated into Japanese. Specifically, the second message M2 is "Please wait for a while."

制御部10が入力言語(日本語)を使用言語として決定すると、タッチディスプレー21に表示される画面は、図4(a)に示す第1表示画面G1から図4(b)に示す第2表示画面G2に切り替わる。   When the control unit 10 determines the input language (Japanese) as the language to be used, the screen displayed on the touch display 21 changes from the first display screen G1 shown in FIG. 4A to the second display screen shown in FIG. The screen switches to screen G2.

一方、制御部10が設定言語(英語)を使用言語として決定すると、タッチディスプレー21に表示される画面が、図4(b)に示す第2表示画面G2から図4(a)に示す第1表示画面G1に切り替わる。   On the other hand, when the control unit 10 determines the set language (English) as the language to be used, the screen displayed on the touch display 21 changes from the second display screen G2 shown in FIG. 4B to the first display screen G2 shown in FIG. The screen is switched to the display screen G1.

以上、実施形態1について説明した。本実施形態によれば、制御部10は、マイクロフォン23に入力された入力音声の言語を示す入力言語を取得すると、入力言語を使用言語として決定し、入力言語と第1ジョブとを関連付ける。第1ジョブは、マイクロフォン23を介して実行が指示されたジョブを示す。制御部10は、第1ジョブが完了すると、設定言語を使用言語として決定する。換言すると、制御部10は、第1ジョブの実行の指示を受け付けてから、第1ジョブが完了するまでの間、使用言語として入力言語を決定する。したがって、入力音声とは異なる言語を使用するユーザーの利便性の低下を抑制することができる。   The first embodiment has been described above. According to the present embodiment, when acquiring the input language indicating the language of the input voice input to the microphone 23, the control unit 10 determines the input language as the language used, and associates the input language with the first job. The first job indicates a job whose execution has been instructed via the microphone 23. When the first job is completed, the control unit 10 determines the set language as the language to be used. In other words, the control unit 10 determines the input language as the language to be used from the time when the instruction to execute the first job is received to the time when the first job is completed. Therefore, it is possible to suppress a decrease in convenience for a user who uses a language different from the input voice.

なお、本実施形態において、設定言語が英語である場合を説明したが、設定言語は、英語に限定されない。設定言語は、画像形成装置100が設置されている場所で広く使用される言語であればよく、設定言語は、例えば、フランス語であってもよい。   In the present embodiment, the case where the set language is English has been described, but the set language is not limited to English. The setting language may be a language widely used in a place where the image forming apparatus 100 is installed, and the setting language may be, for example, French.

また、本実施形態において、入力言語が日本語である場合を説明したが、設定言語は、日本語に限定されない。入力言語は、例えば、韓国語であってもよい。   Further, in the present embodiment, the case where the input language is Japanese has been described, but the set language is not limited to Japanese. The input language may be, for example, Korean.

また、ユーザーは、例えば、記憶部9にアドレス帳データが記憶されている場合、入力言語の音声によって、アドレス帳に登録されたユーザーを検索することができる。   In addition, for example, when the address book data is stored in the storage unit 9, the user can search for the user registered in the address book by the voice of the input language.

また、本実施形態において、実行対象ジョブの条件が、タッチディスプレー21を介して設定される場合を説明したが、実行対象ジョブの条件は、ユーザーが音声によって設定してもよい。   Further, in the present embodiment, the case where the conditions of the execution target job are set via the touch display 21 has been described, but the conditions of the execution target job may be set by the user by voice.

[実施形態2]
続いて、図1、及び図3〜図6を参照して、実施形態2に係る画像形成装置100について説明する。実施形態2では、制御部10が、第1ジョブに加え、別のジョブを更に受け付ける点が実施形態1と異なる。以下、実施形態2について、実施形態1と異なる事項について説明し、実施形態1と重複する部分についての説明は割愛する。
[Embodiment 2]
Subsequently, an image forming apparatus 100 according to the second embodiment will be described with reference to FIG. 1 and FIGS. The second embodiment is different from the first embodiment in that the control unit 10 further receives another job in addition to the first job. Hereinafter, with respect to the second embodiment, matters different from the first embodiment will be described, and description of the same parts as the first embodiment will be omitted.

まず、図5を参照して、実施形態2に係る画像形成装置100の構成について説明する。図5は、実施形態2に係る画像形成装置100の構成を示すブロック図である。図5に示すように、画像形成装置100は、通信部8を更に備える。   First, the configuration of the image forming apparatus 100 according to the second embodiment will be described with reference to FIG. FIG. 5 is a block diagram illustrating a configuration of the image forming apparatus 100 according to the second embodiment. As shown in FIG. 5, the image forming apparatus 100 further includes a communication unit 8.

通信部8は、データの送受信を行う。詳しくは、通信部8は、同じ通信方式を利用する通信機器が実装された外部装置との間でデータの送受信を行う。本実施形態において、通信部8は、LAN(Local Area Network)アダプターである。通信部8は、インターネットのようなネットワークを介して外部装置と接続する。外部装置は、例えば、パーソナルコンピューターである。通信部8は、ジョブの実行の指示を示すデータを外部装置から受信する。   The communication unit 8 transmits and receives data. More specifically, the communication unit 8 transmits and receives data to and from an external device equipped with a communication device using the same communication method. In the present embodiment, the communication unit 8 is a LAN (Local Area Network) adapter. The communication unit 8 connects to an external device via a network such as the Internet. The external device is, for example, a personal computer. The communication unit 8 receives data indicating an instruction to execute a job from an external device.

本実施形態において、制御部10は、第1ジョブの実行の指示と第2ジョブの実行の指示とを受け付ける。制御部10は、例えば、第1ジョブの実行の指示を受け付けてから第1ジョブが完了するまでの間において、第2ジョブの実行の指示を受け付ける。第2ジョブは、通信部8を介して制御部10が実行の指示を受け付けるジョブを示す。本実施形態において、第1ジョブは、コピー機能に基づいて実行されるジョブであり、第2ジョブは、文書ボックス格納機能に基づいて実行されるジョブである。なお、文書ボックス格納機能は、文書ボックス領域9Bに文書データを記憶させる機能を示す。   In the present embodiment, the control unit 10 receives an instruction to execute a first job and an instruction to execute a second job. The control unit 10 receives, for example, an instruction to execute the second job from when the instruction to execute the first job is received until the completion of the first job. The second job is a job for which the control unit 10 receives an execution instruction via the communication unit 8. In the present embodiment, the first job is a job executed based on the copy function, and the second job is a job executed based on the document box storage function. The document box storage function indicates a function of storing document data in the document box area 9B.

制御部10は、第1ジョブの実行の指示を受け付けてから、第1ジョブが完了するまでの間において、エラーの発生を検知すると、第2使用言語決定処理を実行する。第2使用言語決定処理では、制御部10は、実行中のジョブに起因するエラーを示すメッセージを通知する際の使用言語を決定する。以下、エラーを示すメッセージを「エラーメッセージ」と記載する。   When the control unit 10 detects the occurrence of an error during a period from the reception of the instruction to execute the first job to the completion of the first job, the control unit 10 executes the second language determination process. In the second language determination process, the control unit 10 determines the language used when notifying a message indicating an error caused by the job being executed. Hereinafter, a message indicating an error is referred to as an “error message”.

次に、図6を参照して、実施形態2に係る第2使用言語決定処理について説明する。図6は、実施形態2に係る第2使用言語決定処理を示すフローチャートである。第2使用言語決定処理は、制御部10がエラーの発生を検知すると開始される。なお、第2使用言語決定処理の開始時において、使用言語は、入力言語である。本実施形態において、入力言語は、英語である。   Next, a second language determination process according to the second embodiment will be described with reference to FIG. FIG. 6 is a flowchart illustrating a second language determination process according to the second embodiment. The second language determination process is started when the control unit 10 detects the occurrence of an error. At the start of the second language determination process, the language used is the input language. In the present embodiment, the input language is English.

図6に示すように、制御部10は、発生したエラーが第1ジョブに起因するエラーであるか否かを判定する(ステップS201)。例えば、第1ジョブが100枚のシートSにコピーを実行するジョブであり、第2ジョブが文書ボックス領域9Bに所定の文書のデータを記憶させるジョブである場合において、発生したエラーが、給紙カセット51に収容されるシートSが無くなったことに起因するエラーである場合、制御部10は、発生したエラーが第1ジョブに起因するエラーであると判定する(ステップS201;Yes)。一方、発生したエラーが、例えば、文書ボックス領域9Bの容量不足に起因するエラーである場合、制御部10は、発生したエラーが第2ジョブに起因するエラーであると判定する。換言すると、制御部10は、発生したエラーが第1ジョブに起因するエラーではないと判定する(ステップS201;No)。   As shown in FIG. 6, the control unit 10 determines whether or not the generated error is an error caused by the first job (Step S201). For example, in a case where the first job is a job for executing copying on 100 sheets S and the second job is a job for storing data of a predetermined document in the document box area 9B, the error that occurs is If the error is caused by the absence of the sheets S stored in the cassette 51, the control unit 10 determines that the generated error is an error caused by the first job (Step S201; Yes). On the other hand, when the generated error is, for example, an error caused by insufficient capacity of the document box area 9B, the control unit 10 determines that the generated error is an error caused by the second job. In other words, the control unit 10 determines that the generated error is not an error caused by the first job (Step S201; No).

制御部10は、発生したエラーが第1ジョブに起因するエラーではないと判定すると(ステップS201;No)、使用言語として設定言語を決定して(ステップS202)、第2使用言語決定処理を終了する。この結果、設定言語を使用したメッセージ(エラーメッセージ)がタッチディスプレー21に表示される。   When the control unit 10 determines that the generated error is not the error caused by the first job (step S201; No), the control unit 10 determines the set language as the language to be used (step S202), and ends the second language determination processing. I do. As a result, a message (error message) using the set language is displayed on the touch display 21.

一方、発生したエラーが第1ジョブに起因するエラーであると制御部10が判定した場合(ステップS201;Yes)、制御部10は、使用言語として設定言語を決定することなく、第2使用言語決定処理は終了する。換言すると、使用言語は、入力言語のまま維持される。この結果、入力言語を使用したメッセージ(エラーメッセージ)がタッチディスプレー21に表示される。   On the other hand, when the control unit 10 determines that the generated error is an error caused by the first job (step S201; Yes), the control unit 10 determines the second language without determining the set language as the language to be used. The determination processing ends. In other words, the language used is maintained as the input language. As a result, a message (error message) using the input language is displayed on the touch display 21.

以上、実施形態2について説明した。本実施形態によれば、制御部10は、第2ジョブに起因するエラーメッセージを通知する際の使用言語として設定言語を決定する。設定言語は、画像形成装置100が設置されている場所で広く使用されている言語である。即ち、設定言語は、第2ジョブの実行を指示したユーザーが使用する言語である可能性が高い。したがって、ユーザーの利便性が向上する。   The second embodiment has been described above. According to the present embodiment, the control unit 10 determines the set language as the language used when notifying an error message caused by the second job. The set language is a language widely used in a place where the image forming apparatus 100 is installed. That is, the setting language is likely to be the language used by the user who has instructed the execution of the second job. Therefore, user convenience is improved.

また、本実施形態によれば、第2ジョブに起因するエラーメッセージには、設定言語が使用され、第1ジョブに起因するエラーメッセージには、入力言語が使用される。入力言語は、第1ジョブの実行を指示したユーザーが使用する言語である。したがって、第1ジョブの実行を指示したユーザーは、メッセージによって示されるエラーが、自己が実行を指示したジョブに起因するエラーであるか否かを認識することができる。よって、ユーザーの利便性が向上する。   Further, according to the present embodiment, the set language is used for the error message caused by the second job, and the input language is used for the error message caused by the first job. The input language is a language used by the user who has instructed the execution of the first job. Therefore, the user who has instructed the execution of the first job can recognize whether or not the error indicated by the message is an error caused by the job whose execution has been instructed. Therefore, convenience for the user is improved.

[実施形態3]
続いて、図4、及び図7〜図9を参照して、実施形態3に係る画像形成装置100について説明する。実施形態3では、タッチディスプレー21が表示できない言語がある点が実施形態1及び実施形態2と異なる。以下、実施形態3について、実施形態1及び実施形態2と異なる事項について説明し、実施形態1及び実施形態2と重複する部分についての説明は割愛する。
[Embodiment 3]
Subsequently, an image forming apparatus 100 according to the third embodiment will be described with reference to FIG. 4 and FIGS. The third embodiment differs from the first and second embodiments in that some languages cannot be displayed on the touch display 21. Hereinafter, matters of the third embodiment that are different from the first and second embodiments will be described, and descriptions of parts that overlap with the first and second embodiments will be omitted.

まず、図7及び図8を参照して、実施形態3に係る画像形成装置100の構成について説明する。図7は、実施形態3に係る画像形成装置100の構成を示す図である。図8は、実施形態3に係る画像形成装置100の構成を示すブロック図である。図7及び図8に示すように、操作部2は、スピーカー24を更に有する。スピーカー24は、音声出力部の一例である。   First, the configuration of the image forming apparatus 100 according to the third embodiment will be described with reference to FIGS. FIG. 7 is a diagram illustrating a configuration of the image forming apparatus 100 according to the third embodiment. FIG. 8 is a block diagram illustrating a configuration of the image forming apparatus 100 according to the third embodiment. As shown in FIGS. 7 and 8, the operation unit 2 further has a speaker 24. The speaker 24 is an example of an audio output unit.

スピーカー24は、制御部10から出力される出力信号に基づいて音を出力する。本実施形態において、スピーカー24は、メッセージを音声で出力する。スピーカー24は、使用言語を使用して音声を出力する。スピーカー24は、設定言語及び入力言語のいずれの言語も使用して音声を出力することができる。   The speaker 24 outputs a sound based on an output signal output from the control unit 10. In the present embodiment, the speaker 24 outputs the message by voice. The speaker 24 outputs sound using the language used. The speaker 24 can output sound using both the set language and the input language.

本実施形態において、タッチディスプレー21(ディスプレー211)は、入力言語のうちの一部の言語を表示することができない。以下、タッチディスプレー21が表示することができない言語を「サポート外言語」と記載する場合がある。なお、タッチディスプレー21は、設定言語を表示することはできる。   In the present embodiment, the touch display 21 (display 211) cannot display some of the input languages. Hereinafter, a language that the touch display 21 cannot display may be described as a “language not supported”. Note that the touch display 21 can display the set language.

本実施形態に係る制御部10は、第1使用言語決定処理において、取得した入力言語が設定言語と異なると判定すると、タッチディスプレー21が入力言語を表示できるか否かを判定する。   When the control unit 10 according to the present embodiment determines that the acquired input language is different from the set language in the first language determination process, the control unit 10 determines whether the touch display 21 can display the input language.

続いて、図4及び図9を参照して、実施形態3に係る第1使用言語決定処理について説明する。   Subsequently, the first language determination process according to the third embodiment will be described with reference to FIGS. 4 and 9.

図9は、実施形態3に係る第1使用言語決定処理を示すフローチャートである。図9に示すように、制御部10は、取得した入力言語が設定言語と異なると判定すると(ステップS103;Yes)、タッチディスプレー21が入力言語を表示できるか否かを判定する(ステップS301)。制御部10は、タッチディスプレー21が入力言語を表示できないと判定すると(ステップS301;No)、サポート外言語フラグの値を変更する(ステップS302)。詳しくは、制御部10は、例えば、サポート外言語フラグの値を「0」から「1」に変更する。サポート外言語フラグの値を示すデータは、記憶部9に記憶される。以降、実施形態1で説明した場合と同様に第1使用言語決定処理を実行する(ステップS104〜ステップS109)。一方、制御部10は、タッチディスプレー21が入力言語を表示できると判定すると(ステップS301;Yes)、サポート外言語フラグの値を変更することなく、実施形態1で説明した場合と同様に、第1使用言語決定処理を実行する(ステップS104〜ステップS109)。   FIG. 9 is a flowchart illustrating a first language determination process according to the third embodiment. As illustrated in FIG. 9, when the control unit 10 determines that the acquired input language is different from the set language (step S103; Yes), the control unit 10 determines whether the touch display 21 can display the input language (step S301). . When determining that the touch display 21 cannot display the input language (Step S301; No), the control unit 10 changes the value of the unsupported language flag (Step S302). Specifically, for example, the control unit 10 changes the value of the unsupported language flag from “0” to “1”. Data indicating the value of the unsupported language flag is stored in the storage unit 9. Thereafter, the first language determination process is executed as in the case described in the first embodiment (steps S104 to S109). On the other hand, if the control unit 10 determines that the touch display 21 can display the input language (step S301; Yes), the control unit 10 does not change the value of the unsupported language flag and performs the same operation as described in the first embodiment. 1) Use language determination processing is executed (steps S104 to S109).

本実施形態において、制御部10は、第1ジョブに起因するエラーを示すメッセージを通知する必要があると判定すると、記憶部9に記憶されたサポート外言語フラグの値を参照することにより、タッチディスプレー21が入力言語を表示できるか否かを判定する。制御部10は、タッチディスプレー21が入力言語を表示できないと判定すると、スピーカー24にエラーメッセージを出力させる。詳しくは、制御部10は、エラーメッセージを示す出力信号を生成し、スピーカー24へ送信する。スピーカー24は、出力信号に基づいて、入力言語を使用した音声によるエラーメッセージを出力する。   In the present embodiment, when the control unit 10 determines that it is necessary to notify a message indicating an error caused by the first job, the control unit 10 refers to the value of the unsupported language flag stored in the storage unit 9 to perform touch. It is determined whether or not the display 21 can display the input language. When the control unit 10 determines that the touch display 21 cannot display the input language, it causes the speaker 24 to output an error message. Specifically, the control unit 10 generates an output signal indicating the error message and transmits the output signal to the speaker 24. The speaker 24 outputs an error message by voice using the input language based on the output signal.

以上、実施形態3について説明した。本実施形態によれば、入力言語をタッチディスプレー21が表示することができない場合であっても、音声によって、入力言語を発したユーザーにエラーの内容を理解させることができる。したがって、ユーザーの利便性が低下することを抑制することができる。   The third embodiment has been described above. According to the present embodiment, even when the touch display 21 cannot display the input language, the user who has issued the input language can understand the content of the error by voice. Therefore, it is possible to suppress a decrease in user convenience.

なお、本実施形態において、メッセージがエラーメッセージである場合を説明したが、メッセージは、ユーザーに操作方法を通知するヘルプメッセージであってもよい。   In the present embodiment, the case where the message is an error message has been described, but the message may be a help message for notifying the user of an operation method.

[実施形態4]
続いて、図10を参照して、実施形態4に係る画像形成装置100について説明する。実施形態4では、文書に記載される文章が入力言語に翻訳される点が実施形態1〜実施形態3と異なる。以下、実施形態4について、実施形態1〜実施形態3と異なる事項について説明し、実施形態1〜実施形態3と重複する部分についての説明は割愛する。
[Embodiment 4]
Subsequently, an image forming apparatus 100 according to the fourth embodiment will be described with reference to FIG. The fourth embodiment is different from the first to third embodiments in that sentences described in a document are translated into an input language. Hereinafter, with respect to the fourth embodiment, matters that are different from the first to third embodiments will be described, and description of parts that are the same as the first to third embodiments will be omitted.

制御部10は、文書に記載される文章を入力言語に翻訳する。本実施形態において、文書は、原稿読取装置4が読み取った原稿Dである。制御部10は、原稿読取装置4が生成した原稿Dの画像を示すデータを解析することにより、原稿Dに記載された文章を入力言語に翻訳する。以下、原稿Dの画像を示すデータを「第1画像データ」と記載し、原稿Dに記載された文章を「第1文章」と記載する。   The control unit 10 translates a sentence described in a document into an input language. In the present embodiment, the document is a document D read by the document reading device 4. The control unit 10 translates the text described in the document D into an input language by analyzing data indicating the image of the document D generated by the document reading device 4. Hereinafter, the data indicating the image of the document D is referred to as “first image data”, and the text described in the document D is referred to as “first text”.

詳しくは、制御部10は、OCR(Optical Character Recognition)技術のような既知の文字認識技術を利用して第1画像データを解析する。制御部10は、第1画像データを解析することにより、第1文章データ及び文章言語を取得する。第1文章データは、複数の文字によって構成される第1文章を示すデータである。文章言語は、第1文章の言語である。なお、第1文章データ及び文章言語を示すデータは、記憶部9に記憶される。   Specifically, the control unit 10 analyzes the first image data using a known character recognition technology such as an OCR (Optical Character Recognition) technology. The control unit 10 acquires the first sentence data and the sentence language by analyzing the first image data. The first sentence data is data indicating a first sentence composed of a plurality of characters. The sentence language is the language of the first sentence. The first sentence data and the data indicating the sentence language are stored in the storage unit 9.

制御部10は、第1文章データ及び文章言語を示すデータを取得すると、文書翻訳処理を実行する。詳しくは、制御部10は、第1文章データ及び文章言語を示すデータに基づいて翻訳処理を実行する。図10は、実施形態4に係る文書翻訳処理を示すフローチャートである。   When acquiring the first sentence data and the data indicating the sentence language, the control unit 10 executes a document translation process. More specifically, the control unit 10 executes the translation process based on the first sentence data and the data indicating the sentence language. FIG. 10 is a flowchart illustrating a document translation process according to the fourth embodiment.

図10に示すように、制御部10は、第1文章データ及び文章言語を示すデータを取得すると、選択画面をタッチディスプレー21に表示させる(ステップS401)。選択画面は、第1文章を翻訳する必要があるか否かをユーザーに選択させる画面である。選択画面は、第1メニューボタン及び第2メニューボタンを含む。第1メニューボタンは、第1文章の翻訳が必要である旨を示す。第2メニューボタンは、第1文章の翻訳が必要ではない旨を示す。ユーザーは、第1メニューボタン及び第2メニューボタンのいずれかを選択することにより、第1文章を翻訳する必要があるか否かを選択する。   As shown in FIG. 10, when acquiring the first sentence data and the data indicating the sentence language, the control unit 10 displays a selection screen on the touch display 21 (step S401). The selection screen is a screen that allows the user to select whether or not the first sentence needs to be translated. The selection screen includes a first menu button and a second menu button. The first menu button indicates that the first sentence needs to be translated. The second menu button indicates that translation of the first sentence is not required. The user selects whether the first sentence needs to be translated by selecting one of the first menu button and the second menu button.

制御部10は、第1文章の翻訳が必要である旨をユーザーが選択したか否かを判定する(ステップS402)。詳しくは、制御部10は、第1メニューボタン及び第2メニューボタンのいずれをユーザーが選択したか否かを判定することにより、第1文章の翻訳が必要である旨をユーザーが選択したか否かを判定する。制御部10は、第1メニューボタンをユーザーが選択したと判定すると、第1文章の翻訳が必要である旨をユーザーが選択したと判定する(ステップS402;Yes)。一方、制御部10は、第2メニューボタンをユーザーが選択したと判定すると、第1文章の翻訳が必要である旨をユーザーが選択しなかったと判定する(ステップS403;No)。   The control unit 10 determines whether or not the user has selected that the translation of the first sentence is necessary (step S402). Specifically, the control unit 10 determines whether the user has selected the first menu button or the second menu button, thereby determining whether the user has determined that the first sentence needs to be translated. Is determined. When determining that the user has selected the first menu button, the control unit 10 determines that the user has selected that the translation of the first sentence is necessary (Step S402; Yes). On the other hand, when determining that the user has selected the second menu button, the control unit 10 determines that the user has not selected that the translation of the first sentence is necessary (step S403; No).

制御部10は、第1文章の翻訳が必要である旨をユーザーが選択したと判定すると(ステップS402;Yes)、既知の技術を利用して翻訳処理を実行する。詳しくは、制御部10は、第1文章データに基づいて、第2文章データを生成する(ステップS403)。第2文章データは、第1文章を入力言語に翻訳した後の第2文章のデータを示す。次いで、制御部10は、第2文章データと第1画像データ(原稿Dの画像を示すデータ)とに基づいて、第2画像データを生成して(ステップS404)、文書翻訳処理を終了する。第2画像データは、原稿Dの画像のうち、第1文章を示す画像が第2文章を示す画像に置き換えられた画像のデータを示す。換言すると、第2画像データは、第1文章が入力言語に翻訳された原稿Dの画像を示すデータである。   When determining that the user has selected that the translation of the first sentence is necessary (step S402; Yes), the control unit 10 executes a translation process using a known technique. Specifically, the control unit 10 generates the second sentence data based on the first sentence data (Step S403). The second sentence data indicates data of the second sentence after the first sentence is translated into the input language. Next, the control unit 10 generates second image data based on the second text data and the first image data (data indicating the image of the document D) (step S404), and ends the document translation process. The second image data is data of an image of the document D in which the image indicating the first sentence is replaced by the image indicating the second sentence. In other words, the second image data is data indicating an image of the document D in which the first sentence is translated into the input language.

制御部10は、第2画像データを生成すると、第2画像データに基づく画像形成処理を画像形成部7に実行させる。この結果、第2文章が記載された文書が印刷される。換言すると、原稿Dが入力言語に翻訳されて印刷される。   When generating the second image data, the control unit 10 causes the image forming unit 7 to execute an image forming process based on the second image data. As a result, a document in which the second sentence is described is printed. In other words, the document D is translated into the input language and printed.

一方、制御部10は、第1文章の翻訳が必要である旨をユーザーが選択しなかったと判定すると(ステップS402;No)、文書翻訳処理を終了する。文書翻訳処理が終了すると、制御部10は、第1画像データに基づく画像形成処理を画像形成部7に実行させる。この結果、第1文章が記載された文書が印刷される。換言すると、原稿Dが入力言語に翻訳されることなく印刷される。   On the other hand, if the control unit 10 determines that the user has not selected that the translation of the first sentence is necessary (step S402; No), the control unit 10 ends the document translation process. When the document translation process ends, the control unit 10 causes the image forming unit 7 to execute an image forming process based on the first image data. As a result, a document in which the first sentence is described is printed. In other words, the document D is printed without being translated into the input language.

以上、実施形態4について説明した。本実施形態によれば、文書に記載された文章が入力言語に翻訳される。したがって、ユーザーの利便性が向上する。   The fourth embodiment has been described above. According to the present embodiment, a sentence described in a document is translated into an input language. Therefore, user convenience is improved.

なお、本実施形態において、制御部10は、第2画像データに基づく画像形成処理を画像形成部7に実行させたが、制御部10は、第2画像データに基づいて、プレビュー画像をタッチディスプレー21に表示させてもよい。これにより、ユーザーは、翻訳された後の文書のレイアウト等を確認することができる。この結果、ユーザーは、翻訳された後の文書のレイアウトを確認した上で、印刷を実行するか否か決定することができる。よって、ユーザーの利便性が向上する。   In the present embodiment, the control unit 10 causes the image forming unit 7 to execute the image forming process based on the second image data, but the control unit 10 displays the preview image on the touch display based on the second image data. 21 may be displayed. This allows the user to check the layout and the like of the translated document. As a result, the user can determine whether to execute printing after checking the layout of the translated document. Therefore, convenience for the user is improved.

また、本実施形態において、文書が原稿読取装置4によって読み取られた原稿Dである場合を説明したが、文書は、文書ボックス領域9Bに格納されている文書データが示す文書であってもよい。文書は、例えば、ユーザーによって作成されるワード文書である。あるいは、文章は、画像形成装置100の複数の設定値を示す文書である。設定値は、例えば、画像形成装置100のIPアドレスである。   Further, in the present embodiment, the case where the document is the document D read by the document reading device 4 has been described, but the document may be the document indicated by the document data stored in the document box area 9B. The document is, for example, a word document created by a user. Alternatively, the sentence is a document indicating a plurality of setting values of the image forming apparatus 100. The setting value is, for example, the IP address of the image forming apparatus 100.

また、本実施形態において、制御部10は、タッチディスプレー21に選択画面を表示させることにより、翻訳が必要であるか否かをユーザーに選択させたが、制御部10は、例えば、実施形態3で説明したスピーカー24を介して、翻訳が必要であるか否かをユーザーに問いかけてもよい。   In the present embodiment, the control unit 10 allows the user to select whether or not translation is necessary by displaying a selection screen on the touch display 21. The user may be inquired through the speaker 24 described in the above section as to whether or not translation is necessary.

また、本実施形態において、ユーザーは、選択画面に含まれる第1メニューボタン及び第2メニューボタンのいずれかを選択することにより、翻訳が必要であるか否かを選択したが、ユーザーは、マイクロフォン23を介して翻訳が必要であるか否かを選択してもよい。   In the present embodiment, the user selects whether or not translation is necessary by selecting one of the first menu button and the second menu button included in the selection screen. It may be possible to select via 23 whether or not translation is required.

また、本実施形態において、制御部10が文書翻訳処理を実行する形態を説明したが、文書翻訳処理は、翻訳サーバーなどの外部装置によって実行されてもよい。この場合、画像形成装置100は、実施形態2で説明した通信部8を更に備える(図5参照)。制御部10は、第1文章データを、通信部8を介して外部装置へ送信する。また、制御部10は、第2文章データを、通信部8を介して外部装置から受信する。   Further, in the present embodiment, the mode in which the control unit 10 executes the document translation process has been described, but the document translation process may be executed by an external device such as a translation server. In this case, the image forming apparatus 100 further includes the communication unit 8 described in the second embodiment (see FIG. 5). The control unit 10 transmits the first sentence data to the external device via the communication unit 8. Further, the control unit 10 receives the second sentence data from an external device via the communication unit 8.

[実施形態5]
続いて、図11を参照して、実施形態5に係る画像形成システム300について説明する。実施形態5では、画像形成システム300が画像形成装置100と外部装置200とを備え、入力音声の解析を外部装置200が行う点が実施形態1〜実施形態4と異なる。以下、実施形態5について、実施形態1〜実施形態4と異なる事項について説明し、実施形態1〜実施形態4と重複する部分についての説明は割愛する。
[Embodiment 5]
Subsequently, an image forming system 300 according to the fifth embodiment will be described with reference to FIG. The fifth embodiment is different from the first to fourth embodiments in that the image forming system 300 includes the image forming apparatus 100 and the external device 200, and the external device 200 analyzes the input voice. Hereinafter, with respect to the fifth embodiment, matters that are different from the first to fourth embodiments will be described, and the description of the same parts as the first to fourth embodiments will be omitted.

図11は、実施形態5に係る画像形成システム300の構成を示す図である。   FIG. 11 is a diagram illustrating a configuration of an image forming system 300 according to the fifth embodiment.

図11に示すように、外部装置200は、第1通信部201、及び第1制御部202を備える。   As shown in FIG. 11, the external device 200 includes a first communication unit 201 and a first control unit 202.

第1通信部201は、画像形成装置100と通信する。第1通信部201は、データの送受信を行う。詳しくは、第1通信部201は、同じ通信方式を利用する通信機器が実装された電子機器との間でデータの送受信を行う。本実施形態において、第1通信部201は、LANアダプターである。第1通信部201は、インターネットのようなネットワークを介して画像形成装置100と接続する。   The first communication unit 201 communicates with the image forming apparatus 100. The first communication unit 201 transmits and receives data. Specifically, the first communication unit 201 transmits and receives data to and from an electronic device equipped with a communication device using the same communication method. In the present embodiment, the first communication unit 201 is a LAN adapter. The first communication unit 201 connects to the image forming apparatus 100 via a network such as the Internet.

第1制御部202は、外部装置200の各部の動作を制御する。第1制御部202は、CPUのようなプロセッサーを含む。   The first control unit 202 controls the operation of each unit of the external device 200. The first control unit 202 includes a processor such as a CPU.

本実施形態において、画像形成装置100が備える制御部10を「第2制御部10」と記載し、画像形成装置100が備える通信部8を「第2通信部8」と記載する。なお、第2制御部10は、入力音声の解析を行わない以外の構成は、実施形態1〜実施形態4で説明した制御部10と略同様である。また、第2通信部8は、以下に記載する以外の構成は、実施形態2〜実施形態4で説明した通信部8と略同様である。   In the present embodiment, the control unit 10 included in the image forming apparatus 100 is referred to as a “second control unit 10”, and the communication unit 8 included in the image forming apparatus 100 is referred to as a “second communication unit 8”. The configuration other than that the second control unit 10 does not analyze the input voice is substantially the same as the control unit 10 described in the first to fourth embodiments. The configuration of the second communication unit 8 is substantially the same as the communication unit 8 described in the second to fourth embodiments, except for the configuration described below.

第2制御部10は、マイクロフォン23に音声が入力されると、入力音声を示すデータを、第2通信部8及び第1通信部201を介して第1制御部202へ送信する。   When a voice is input to the microphone 23, the second control unit 10 transmits data indicating the input voice to the first control unit 202 via the second communication unit 8 and the first communication unit 201.

第1制御部202は、入力音声を示すデータを受信すると、既知の音声認識技術を利用して、入力音声を解析する。第1制御部202は、入力音声の解析結果を示すデータを、第1通信部201及び第2通信部8を介して第2制御部10へ送信する。   When receiving the data indicating the input voice, the first control unit 202 analyzes the input voice using a known voice recognition technology. The first control unit 202 transmits data indicating the analysis result of the input voice to the second control unit 10 via the first communication unit 201 and the second communication unit 8.

第2制御部10は、入力音声の解析結果を示すデータを受信すると、以降、実施形態1で説明した場合と同様に、第1使用言語決定処理(ステップS102〜ステップS109)を実行する(図3参照)。   Upon receiving the data indicating the analysis result of the input voice, the second control unit 10 thereafter executes the first language determination process (steps S102 to S109) as in the case described in the first embodiment (FIG. 3).

以上、実施形態5について説明した。本実施形態によれば、外部装置200が入力音声を解析する。即ち、画像形成システム300は、各処理を分散させることができる。よって、画像形成装置100にかかる負荷を低減することができる。   The fifth embodiment has been described above. According to the present embodiment, the external device 200 analyzes the input voice. That is, the image forming system 300 can distribute each processing. Thus, the load on the image forming apparatus 100 can be reduced.

なお、本実施形態において、画像形成装置100がマイクロフォン23を備える構成を説明したが、外部装置200がマイクロフォンを備えてもよい。この場合、第1制御部202は、外部装置200が備えるマイクロフォンに入力された音声を解析し得る。なお、外部装置200がマイクロフォンを備える場合、画像形成装置100は、マイクロフォン23を省略し、外部装置200が備えるマイクロフォンを介してジョブの実行の指示を受け付けてもよい。   In the present embodiment, the configuration in which the image forming apparatus 100 includes the microphone 23 has been described, but the external device 200 may include a microphone. In this case, the first control unit 202 can analyze the voice input to the microphone included in the external device 200. When the external device 200 includes a microphone, the image forming apparatus 100 may omit the microphone 23 and receive a job execution instruction via the microphone included in the external device 200.

以上、本発明の実施形態について、図面(図1〜図11)を参照しながら説明した。但し、本発明は、上記の実施形態に限られるものではなく、その要旨を逸脱しない範囲で種々の態様において実施することが可能である。また、上記の実施形態で示す構成や数値は、一例であって特に限定されるものではなく、本発明の効果から実質的に逸脱しない範囲で種々の変更が可能である。   The embodiment of the invention has been described with reference to the drawings (FIGS. 1 to 11). However, the present invention is not limited to the above embodiment, and can be implemented in various modes without departing from the gist thereof. Further, the configurations and numerical values shown in the above embodiments are examples and are not particularly limited, and various changes can be made without substantially departing from the effects of the present invention.

例えば、本発明の実施形態において、電子写真方式の画像形成装置に本発明が適用される場合を例に説明したが、本発明は、例えば、インクジェット方式の画像形成装置にも適用可能である。   For example, in the embodiments of the present invention, the case where the present invention is applied to an electrophotographic image forming apparatus has been described as an example, but the present invention is also applicable to, for example, an ink jet image forming apparatus.

本発明は、例えば、画像形成装置の分野に有用である。   The present invention is useful, for example, in the field of image forming apparatuses.

9 記憶部
10 制御部
23 マイクロフォン
100 画像形成装置
211 ディスプレー(通知部)
9 storage unit 10 control unit 23 microphone 100 image forming apparatus 211 display (notification unit)

Claims (6)

第1ジョブの実行の指示が音声によって入力される音声入力部と、
使用言語を使用してメッセージを通知する通知部と、
前記音声入力部に入力された入力音声を解析し、前記入力音声の言語を示す入力言語を取得する制御部と、
設定言語を示すデータを記憶する記憶部と
を備え、
前記制御部は、前記第1ジョブと前記入力言語とを関連付けて前記記憶部に記憶させ、
前記制御部は、前記第1ジョブの実行の指示を受け付けてから、前記第1ジョブが完了するまでの間、前記使用言語として前記入力言語を決定し、前記第1ジョブが完了すると、前記使用言語として前記設定言語を決定する、画像形成装置。
A voice input unit for inputting an instruction to execute the first job by voice;
A notification unit for notifying a message using a language used;
A control unit that analyzes an input voice input to the voice input unit and acquires an input language indicating a language of the input voice,
A storage unit for storing data indicating the set language,
The control unit stores the first job and the input language in the storage unit in association with each other,
The control unit determines the input language as the language to be used during a period from receiving an instruction to execute the first job until completion of the first job. An image forming apparatus that determines the set language as a language.
データの送受信を行う通信部を更に備え、
前記制御部は、前記通信部を介して第2ジョブの実行の指示を受け付け、
前記制御部は、前記第1ジョブの実行の指示を受け付けてから、前記第1ジョブが完了するまでの間において、前記第2ジョブに起因するエラーが発生すると、前記第2ジョブに起因するエラーを示す前記メッセージを通知する際の前記使用言語として前記設定言語を決定する、請求項1に記載の画像形成装置。
Further comprising a communication unit for transmitting and receiving data,
The control unit receives an instruction to execute a second job via the communication unit,
The control unit, if an error caused by the second job occurs during a period from receiving an instruction to execute the first job to completion of the first job, causes an error caused by the second job to occur. The image forming apparatus according to claim 1, wherein the setting language is determined as the language to be used when notifying the message indicating “!”.
前記通知部は、前記メッセージを表示することにより出力する表示部と、前記メッセージを音声によって出力する音声出力部とを含み、
前記制御部は、前記表示部が前記入力言語を使用して前記メッセージを表示することができるか否かを判定し、
前記制御部は、前記表示部が前記入力言語を使用して前記メッセージを表示することができると判定した場合、前記メッセージを前記表示部に表示させ、前記表示部が前記入力言語を使用して前記メッセージを表示することができないと判定した場合、前記入力言語を使用した音声によって前記メッセージを前記音声出力部に出力させる、請求項1又は請求項2に記載の画像形成装置。
The notification unit includes a display unit that outputs by displaying the message, and an audio output unit that outputs the message by voice,
The control unit determines whether the display unit can display the message using the input language,
When the control unit determines that the display unit can display the message using the input language, the control unit causes the display unit to display the message, and the display unit uses the input language. 3. The image forming apparatus according to claim 1, wherein when it is determined that the message cannot be displayed, the message is output to the voice output unit by voice using the input language. 4.
前記記憶部は、文書を示すデータを記憶し、
前記制御部は、前記文書の言語を前記入力言語に翻訳し、翻訳された後の前記文書を前記表示部に表示させる、請求項3に記載の画像形成装置。
The storage unit stores data indicating a document,
The image forming apparatus according to claim 3, wherein the control unit translates a language of the document into the input language, and causes the display unit to display the translated document.
シートに画像を形成する画像形成部を更に備え、
前記制御部は、前記文書の言語を前記入力言語に翻訳し、翻訳された後の前記文書を前記画像形成部に形成させる、請求項4に記載の画像形成装置。
Further comprising an image forming unit for forming an image on the sheet,
The image forming apparatus according to claim 4, wherein the control unit translates a language of the document into the input language, and causes the image forming unit to form the translated document.
ジョブの実行の指示が音声によって入力される音声入力部と、
使用言語を使用してメッセージを通知する通知部と、
前記音声入力部に入力された入力音声を解析し、前記入力音声の言語を示す入力言語を取得する制御部と、
設定言語を示すデータを記憶する記憶部と
を備え、
前記制御部は、前記ジョブと前記入力言語とを関連付けて前記記憶部に記憶させ、
前記制御部は、前記ジョブの実行の指示を受け付けてから、前記ジョブが完了するまでの間、前記使用言語として前記入力言語を決定し、前記ジョブが完了すると、前記使用言語として前記設定言語を決定する、画像形成システム。
A voice input unit for inputting a job execution instruction by voice;
A notification unit for notifying a message using a language used;
A control unit that analyzes an input voice input to the voice input unit and acquires an input language indicating a language of the input voice,
A storage unit for storing data indicating the set language,
The control unit stores the job and the input language in the storage unit in association with each other,
The control unit determines the input language as the language to be used until the job is completed after receiving the instruction to execute the job, and when the job is completed, sets the set language as the language to be used. Determine the image forming system.
JP2018139288A 2018-07-25 2018-07-25 Image formation device, and image formation system Pending JP2020015218A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018139288A JP2020015218A (en) 2018-07-25 2018-07-25 Image formation device, and image formation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018139288A JP2020015218A (en) 2018-07-25 2018-07-25 Image formation device, and image formation system

Publications (1)

Publication Number Publication Date
JP2020015218A true JP2020015218A (en) 2020-01-30

Family

ID=69581132

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018139288A Pending JP2020015218A (en) 2018-07-25 2018-07-25 Image formation device, and image formation system

Country Status (1)

Country Link
JP (1) JP2020015218A (en)

Similar Documents

Publication Publication Date Title
JP2015186208A (en) Image processing system, image processing apparatus, information processing apparatus, and image processing method
JP2008276693A (en) Image forming device and program
US20150146255A1 (en) Image Forming Apparatus That Enhances Operability on Screen Displayed as Split Screens
CN111327780A (en) Image processing system, image forming apparatus, determination method, and program
JP2008098762A (en) Image forming apparatus, image forming system, and program
JP2020015218A (en) Image formation device, and image formation system
JP2000272206A (en) Image-forming apparatus
JP2002362821A (en) Image forming device
JP2009145689A (en) Information display device and image forming apparatus provided with the same
JP2019144728A (en) Operation input device and image processing system and notification method and notification program and processing execution method and processing execution program
JP6292140B2 (en) Image processing system
JP2005205598A (en) Image forming apparatus
US10757278B2 (en) Image forming apparatus that executes first job and second job in parallel
JP2012245768A (en) Image forming apparatus and image forming system
JP2009192604A (en) Image forming apparatus and program
JP7388541B2 (en) Image forming device
US20230350638A1 (en) Image forming apparatus and input device
US10628716B2 (en) Image forming apparatus that determines a job generation method based on image processing time
JP7115259B2 (en) Image forming apparatus and program
JP7283231B2 (en) image forming device
US20210067635A1 (en) Image processing apparatus and method for controlling image processing apparatus
JP2009053935A (en) Information processor and history information management program
JP5380521B2 (en) Operating device and image forming apparatus
JP2001197268A (en) Image forming device
US10178266B2 (en) Printing apparatus and control method of printing apparatus