JP2020170401A - Display device and image forming device - Google Patents

Display device and image forming device Download PDF

Info

Publication number
JP2020170401A
JP2020170401A JP2019072234A JP2019072234A JP2020170401A JP 2020170401 A JP2020170401 A JP 2020170401A JP 2019072234 A JP2019072234 A JP 2019072234A JP 2019072234 A JP2019072234 A JP 2019072234A JP 2020170401 A JP2020170401 A JP 2020170401A
Authority
JP
Japan
Prior art keywords
icon
control unit
touch
touch panel
document
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019072234A
Other languages
Japanese (ja)
Other versions
JP7281074B2 (en
Inventor
健司 清瀬
Kenji Kiyose
健司 清瀬
純央 山田
Sumio Yamada
純央 山田
信人 藤田
Nobuhito Fujita
信人 藤田
耕司 黒田
Koji Kuroda
耕司 黒田
隆行 眞下
Takayuki Mashita
隆行 眞下
遼太 清家
Ryota Seike
遼太 清家
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Document Solutions Inc
Original Assignee
Kyocera Document Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Document Solutions Inc filed Critical Kyocera Document Solutions Inc
Priority to JP2019072234A priority Critical patent/JP7281074B2/en
Publication of JP2020170401A publication Critical patent/JP2020170401A/en
Application granted granted Critical
Publication of JP7281074B2 publication Critical patent/JP7281074B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide a display device that prevents a user from feeling annoyed when operating a touch panel.SOLUTION: The display device 4 includes a touch panel 41, sound input unit 46, and control unit. The touch panel 41 displays an icon and receives a touch operation on the icon. A sound is input to the sound input unit 46. The control unit extracts a first keyword and a second keyword based on the input sound from the sound input unit 46. The icon is associated with a code and location information indicating the location of the code. The first keyword is associated with the location information. The second keyword indicates processing for the code. The control unit determines processing for the code indicated by the location information associated with the first keyword based on the second keyword.SELECTED DRAWING: Figure 1

Description

本発明は、表示装置及び画像形成装置に関する。 The present invention relates to a display device and an image forming device.

特許文献1に記載のタッチパネル端末は、タッチパネルディスプレーと、座標取得部と、表示制御部と、データ読込部とを含む。タッチパネルディスプレーは、ユーザーからの入力を受け付ける。タッチパネルディスプレーは、テキストデータを表示する。座標取得部は、ユーザーの指が押下された押下位置の座標を取得する。表示制御部は、座標取得部の押下位置の座標に基づいて、テキストデータの表示位置を変更する。特許文献1のタッチパネル端末は、タッチパネルの表示領域内でのユーザーの指の座標とテキストデータの表示位置とを同期させることができる。 The touch panel terminal described in Patent Document 1 includes a touch panel display, a coordinate acquisition unit, a display control unit, and a data reading unit. The touch panel display accepts input from the user. The touch panel display displays text data. The coordinate acquisition unit acquires the coordinates of the pressed position where the user's finger is pressed. The display control unit changes the display position of the text data based on the coordinates of the pressed position of the coordinate acquisition unit. The touch panel terminal of Patent Document 1 can synchronize the coordinates of the user's finger and the display position of the text data in the display area of the touch panel.

特開2010−198483号公報JP-A-2010-198483

しかしながら、特許文献1に記載のタッチパネル端末では、目的の表示位置になるまで、何度もタッチ操作を行う必要がある。タッチ操作の回数が多くなる場合、ユーザーは煩わしさを感じる。 However, in the touch panel terminal described in Patent Document 1, it is necessary to perform a touch operation many times until the target display position is reached. When the number of touch operations is large, the user feels annoyed.

本発明は上記課題に鑑みてなされたものであり、タッチパネルを操作する際に、ユーザーが煩わしく感じることを抑制することができる表示装置及び画像形成装置を提供することを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to provide a display device and an image forming device capable of suppressing a user from feeling annoyed when operating a touch panel.

本発明に係る表示装置は、タッチパネルと、音声入力部と、制御部とを備える。前記タッチパネルは、アイコンを表示し、前記アイコンに対するタッチ操作を受け付ける。前記音声入力部は、音声が入力される。前記制御部は、前記音声入力部から入力された音声に基づいて、第1キーワードと、第2キーワードとを抽出する。前記アイコンには、記号と、前記記号の所在を示す所在情報とが関連付けられている。前記第1キーワードは、前記所在情報と関連付けられている。前記第2キーワードは、前記記号に対する処理を示す。前記制御部は、前記第2キーワードに基づいて、前記第1キーワードに関連付けられた前記所在情報が示す前記記号に対する前記処理を決定する。 The display device according to the present invention includes a touch panel, a voice input unit, and a control unit. The touch panel displays an icon and accepts a touch operation on the icon. Voice is input to the voice input unit. The control unit extracts a first keyword and a second keyword based on the voice input from the voice input unit. The icon is associated with a symbol and location information indicating the location of the symbol. The first keyword is associated with the location information. The second keyword indicates a process for the symbol. Based on the second keyword, the control unit determines the process for the symbol indicated by the location information associated with the first keyword.

本発明に係る画像形成装置は、上記表示装置と、画像形成部とを備える。前記画像形成部は、シートに画像を形成する。 The image forming apparatus according to the present invention includes the above display device and an image forming unit. The image forming unit forms an image on the sheet.

本発明によれば、タッチパネルを操作する際にユーザーが煩わしく感じることを抑制することができる。 According to the present invention, it is possible to suppress the user from feeling annoyed when operating the touch panel.

本発明の実施形態1に係る表示装置を示す図である。It is a figure which shows the display device which concerns on Embodiment 1 of this invention. 本実施形態1の表示装置の構成を示すブロック図である。It is a block diagram which shows the structure of the display device of this Embodiment 1. 本実施形態1の画面を表示したタッチパネルを示す図である。It is a figure which shows the touch panel which displayed the screen of this Embodiment 1. 本実施形態1の第2キーワードに基づいて決定された処理の一例を示す図である。It is a figure which shows an example of the process which was decided based on the 2nd keyword of this Embodiment 1. 本実施形態1の第2キーワードに基づいて決定された処理の別の一例を示す図である。It is a figure which shows another example of the process which was determined based on the 2nd keyword of this Embodiment 1. 本実施形態1の制御部が実行する処理を示すフローチャートである。It is a flowchart which shows the process which the control part of this Embodiment 1 executes. 本実施形態1の制御部が実行する選択処理を示すフローチャートである。It is a flowchart which shows the selection process which the control part of this Embodiment 1 executes. 本実施形態1の制御部が実行する抽出処理を示すフローチャートである。It is a flowchart which shows the extraction process which the control part of this Embodiment 1 executes. 本実施形態1の制御部が実行する決定処理を示すフローチャートである。It is a flowchart which shows the decision process which the control part of this Embodiment 1 executes. 本発明の実施形態2に係る表示装置を示す図である。It is a figure which shows the display device which concerns on Embodiment 2 of this invention. 本実施形態2の制御部が実行する選択処理を示すフローチャートである。It is a flowchart which shows the selection process which the control part of this Embodiment 2 executes. 本実施形態2の制御部が実行する選択処理を示すフローチャートである。It is a flowchart which shows the selection process which the control part of this Embodiment 2 executes. 実施形態2の制御部が実行する抽出処理を示すフローチャートである。It is a flowchart which shows the extraction process which the control part of Embodiment 2 executes. 本発明の実施形態3に係る表示装置を示す図である。It is a figure which shows the display device which concerns on Embodiment 3 of this invention. 本実施形態3の制御部が実行する選択処理を示すフローチャートである。It is a flowchart which shows the selection process which the control part of this Embodiment 3 executes. 実施形態3の制御部が実行する選択処理を示すフローチャートである。6 is a flowchart showing a selection process executed by the control unit of the third embodiment. 本発明の実施形態4に係る表示装置を備える画像形成装置を示す図である。It is a figure which shows the image forming apparatus which includes the display apparatus which concerns on Embodiment 4 of this invention.

以下、本発明の実施形態について、図面を参照しながら説明する。なお、図中、同一または相当部分については同一の参照符号を付して説明を繰り返さない。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the drawings, the same or corresponding parts are designated by the same reference numerals and the description is not repeated.

[実施形態1]
図1は、表示装置4を示す図である。表示装置4は、タッチパネル41と、入力部42と、音声入力部46とを備える。タッチパネル41は、画像を表示する。タッチパネル41は、操作を受け付ける。タッチパネル41は、ユーザーの指で操作される。表示装置4は、例えば、スマートフォン、携帯端末、画像形成装置の操作表示部である。
[Embodiment 1]
FIG. 1 is a diagram showing a display device 4. The display device 4 includes a touch panel 41, an input unit 42, and a voice input unit 46. The touch panel 41 displays an image. The touch panel 41 accepts operations. The touch panel 41 is operated by the user's finger. The display device 4 is, for example, an operation display unit of a smartphone, a mobile terminal, or an image forming device.

タッチパネル41は、表示部43と、タッチセンサー45とを有する。 The touch panel 41 has a display unit 43 and a touch sensor 45.

表示部43は種々の画像を表示する。表示部43は任意の画像を表示する。表示部43は、例えば液晶表示装置(Liquid Crystaal Display:LCD)である。表示部43は、矩形状である。表示部43とタッチセンサー45とは重ねて配置される。ユーザーは、タッチセンサー45を介して表示部43に表示された画像を視認できる。 The display unit 43 displays various images. The display unit 43 displays an arbitrary image. The display unit 43 is, for example, a liquid crystal display device (Liquid Crystal Display: LCD). The display unit 43 has a rectangular shape. The display unit 43 and the touch sensor 45 are arranged so as to overlap each other. The user can visually recognize the image displayed on the display unit 43 via the touch sensor 45.

タッチセンサー45は、指の押下位置を検知する。指の押下は、例えば、タッチ操作の位置を示す。タッチ操作の位置は、例えば、タッチパネル41に表示された画像の位置と対応する。また、タッチセンサー45は、指の擦動を検知する。指の擦動は、例えば、スワイプ操作である。 The touch sensor 45 detects the finger pressing position. Pressing a finger indicates, for example, the position of a touch operation. The position of the touch operation corresponds to, for example, the position of the image displayed on the touch panel 41. In addition, the touch sensor 45 detects the rubbing of a finger. Rubbing a finger is, for example, a swipe operation.

入力部42は、ユーザーからの操作を受け付ける。入力部42は、ボタンである。ユーザーは、ボタンを押下することで、表示装置4に種々の操作を行える。 The input unit 42 receives an operation from the user. The input unit 42 is a button. The user can perform various operations on the display device 4 by pressing the button.

音声入力部46は、音声が入力される。具体的には、ユーザーが発話した音声が音声入力部46に入力される。音声入力部46は、例えば、マイクである。マイクは、集音装置の一例である。 Voice is input to the voice input unit 46. Specifically, the voice spoken by the user is input to the voice input unit 46. The voice input unit 46 is, for example, a microphone. A microphone is an example of a sound collecting device.

次に、図2を参照して、表示装置4の構成を更に詳しく説明する。図2は、表示装置4の構成を示すブロック図である。図2に示すように、表示装置4は、制御部47と、通信部48と、記憶部49とを更に備える。 Next, the configuration of the display device 4 will be described in more detail with reference to FIG. FIG. 2 is a block diagram showing the configuration of the display device 4. As shown in FIG. 2, the display device 4 further includes a control unit 47, a communication unit 48, and a storage unit 49.

制御部47は、タッチパネル41、入力部42、音声入力部46、通信部48、及び記憶部49のような表示装置4の各要素を制御する。制御部47は、CPU(Central Processing Unit)またはASIC(Application Specific Integrated Circuit)のようなプロセッサー、及び記憶装置を含む。制御部47は、タッチセンサー45が出力したタッチ操作の位置を示す信号を受け取る。制御部47は、音声入力部46から出力した音声を示す信号を受け取る。 The control unit 47 controls each element of the display device 4, such as the touch panel 41, the input unit 42, the voice input unit 46, the communication unit 48, and the storage unit 49. The control unit 47 includes a processor such as a CPU (Central Processing Unit) or an ASIC (Application Specific Integrated Circuit), and a storage device. The control unit 47 receives a signal indicating the position of the touch operation output by the touch sensor 45. The control unit 47 receives a signal indicating the voice output from the voice input unit 46.

記憶部49は、記憶装置を含み、データ及びコンピュータープログラムを記憶する。具体的には、記憶部49は、半導体メモリーのような主記憶装置、並びに、半導体メモリー及び/またはハードディスクドライブのような補助記憶装置を含む。記憶部49は、リムーバルメディアを含んでもよい。データは、画像、所在情報、及び音声パターンを含む。 The storage unit 49 includes a storage device and stores data and computer programs. Specifically, the storage unit 49 includes a main storage device such as a semiconductor memory and an auxiliary storage device such as a semiconductor memory and / or a hard disk drive. The storage unit 49 may include removable media. The data includes images, location information, and audio patterns.

記憶部49に記憶される画像は、記号、画面及びアイコンを含む。記号は、ドキュメントに含まれる文字または文字列を示す。文字は、例えば、ドキュメントに含まれる文章と文章との区切りを示す「章」を含む。「章」は、例えば漢字または英語で表される。また、文字は、例えば、ドキュメントに含まれるページを示す「P」を含む。文字列は、例えば、ドキュメントに含まれる「第N章」を含む。「N」は、自然数を示す。文字列は、例えば、ドキュメントに含まれる「第N節」を含む。画面は、タッチパネル41に表示される画面を示す。所在情報は、メタ情報を示す。例えば、メタ情報はページや目次のような記号の所在を示す。 The image stored in the storage unit 49 includes symbols, screens, and icons. The symbol indicates a character or string contained in the document. The characters include, for example, a "chapter" indicating a sentence-to-sentence delimiter contained in the document. The "chapter" is represented, for example, in Chinese characters or English. In addition, the character includes, for example, "P" indicating a page included in the document. The string includes, for example, "Chapter N" contained in the document. "N" indicates a natural number. The character string includes, for example, "Section N" contained in the document. The screen shows a screen displayed on the touch panel 41. The location information indicates meta information. For example, meta information indicates the location of symbols such as pages and tables of contents.

記憶部49に記憶される音声パターンは、テキスト情報である。音声パターンは、「このアイコン」、「X色」、「N番」「マークが表示されたアイコン」、「章」、「NP」、「第N章から第N章」、「第N節から第N節」、「NPからNP」、「表示」及び「印刷」等を含む。「X色」の「X」は、例えば色の名前である。音声パターンは、予めユーザーが記憶部49に記憶させてもよい。 The voice pattern stored in the storage unit 49 is text information. The voice patterns are "this icon", "X color", "N number", "icon with mark", "chapter", "NP", "chapter N to chapter N", "from section N". Includes "Section N", "NP to NP", "Display", "Printing" and the like. The "X" in the "X color" is, for example, the name of the color. The voice pattern may be stored in the storage unit 49 by the user in advance.

通信部48は、ネットワークNを介して、画像形成装置100と通信する。通信部48は、ネットワークNを介して、例えば、画像形成装置100に印刷ジョブを送信する。なお、画像形成装置100は、画像形成部を備える。 The communication unit 48 communicates with the image forming apparatus 100 via the network N. The communication unit 48 transmits a print job to, for example, the image forming apparatus 100 via the network N. The image forming apparatus 100 includes an image forming unit.

引き続き図1〜図2を参照して、制御部47について詳しく説明する。制御部47は、タッチパネル41と、音声入力部46とを制御する。 The control unit 47 will be described in detail with reference to FIGS. 1 and 2. The control unit 47 controls the touch panel 41 and the voice input unit 46.

制御部47は、タッチパネル41が画像を表示するように、タッチパネル41を制御する。具体的には、制御部47は、タッチパネル41の表示部43が画像を表示するように、タッチパネル41の表示部43を制御する。 The control unit 47 controls the touch panel 41 so that the touch panel 41 displays an image. Specifically, the control unit 47 controls the display unit 43 of the touch panel 41 so that the display unit 43 of the touch panel 41 displays an image.

また、制御部47は、タッチパネル41からタッチ位置を取得する。制御部47は、表示部43に表示した画像の位置とタッチ位置とに基づいて、操作された画像を特定する。 Further, the control unit 47 acquires the touch position from the touch panel 41. The control unit 47 identifies the manipulated image based on the position and touch position of the image displayed on the display unit 43.

制御部47は、音声入力部46から入力される音声に基づいて、キーワードを抽出する。具体的には、制御部47は、ユーザーの音声をデジタル信号に変換する。そして、制御部47は、デジタル信号に基づいて、ユーザー音声に対応するテキスト情報を生成する。更に、制御部47は、音声入力部46から入力される音声を示すテキスト情報と、記憶部49に記憶された音声パターンとが一致するか否かを判定する。そして、制御部47は、音声パターンと一致する音声を示すテキスト情報をキーワードとして抽出する。 The control unit 47 extracts keywords based on the voice input from the voice input unit 46. Specifically, the control unit 47 converts the user's voice into a digital signal. Then, the control unit 47 generates text information corresponding to the user voice based on the digital signal. Further, the control unit 47 determines whether or not the text information indicating the voice input from the voice input unit 46 matches the voice pattern stored in the storage unit 49. Then, the control unit 47 extracts text information indicating a voice that matches the voice pattern as a keyword.

制御部47が抽出するキーワードは、例えば、「このアイコン」、「赤色」、「黒色」、「1番」、「2番」、「丸」、「三角」、「赤色のマーク」、「黒色のマーク」、「章」、「NP」、「第N章から第N章」、「第N節から第N節」、「NPからNP」、「表示」及び「印刷」等を含む。 The keywords extracted by the control unit 47 are, for example, "this icon", "red", "black", "No. 1", "No. 2", "circle", "triangle", "red mark", and "black". "Mark", "Chapter", "NP", "Chapter N to Chapter N", "Section N to Section N", "NP to NP", "Display", "Print" and the like.

「章」、「NP」、「第N章から第N章」、「第N節から第N節」、及び「NPからNP」は、第1キーワードの一例に相当する。「表示」及び「印刷」は、第2キーワードの一例に相当する。「このアイコン」、「赤色」、「黒色」、「1番」、「2番」、「丸」、「三角」、「赤色のマーク」、「黒色のマーク」は、第3キーワードの一例に相当する。 "Chapter", "NP", "Chapter N to Chapter N", "Section N to Section N", and "NP to NP" correspond to an example of the first keyword. "Display" and "print" correspond to an example of the second keyword. "This icon", "red", "black", "No. 1", "No. 2", "circle", "triangle", "red mark", "black mark" are examples of the third keyword. Equivalent to.

次に、図1〜図3を参照して、タッチパネル41について詳しく説明する。図3は、画面P1を表示したタッチパネル41を示す図である。図3に示すように、画面P1をタッチパネル41に表示する場合、制御部47は、タッチパネル41が画面P1を表示するように、タッチパネル41を制御する。 Next, the touch panel 41 will be described in detail with reference to FIGS. 1 to 3. FIG. 3 is a diagram showing a touch panel 41 displaying the screen P1. As shown in FIG. 3, when the screen P1 is displayed on the touch panel 41, the control unit 47 controls the touch panel 41 so that the touch panel 41 displays the screen P1.

図3に示す画面P1は、複数のアイコンを含む。複数のアイコンのうちの1つは、複数のドキュメントアイコン431である。タッチパネル41は、複数のドキュメントアイコン431の各々に対するタッチ操作を受け付ける。複数のアイコンのうちの1つは、指示アイコン432である。指示アイコン432は、タッチ操作と音声操作とを受け付ける。複数のアイコンのうちの1つは、選択アイコン433である。ドキュメントアイコン431は、指示アイコン432より大きい画像である。 The screen P1 shown in FIG. 3 includes a plurality of icons. One of the plurality of icons is a plurality of document icons 431. The touch panel 41 accepts a touch operation for each of the plurality of document icons 431. One of the plurality of icons is the instruction icon 432. The instruction icon 432 accepts a touch operation and a voice operation. One of the plurality of icons is the selection icon 433. The document icon 431 is an image larger than the instruction icon 432.

ドキュメントアイコン431は、例えば、ドキュメントを示す画像である。複数のドキュメントアイコン431の各々には、記号と、所在情報とが関連付けられている。 The document icon 431 is, for example, an image showing a document. A symbol and location information are associated with each of the plurality of document icons 431.

複数のドキュメントアイコン431のうちの1つは、第1ドキュメントアイコン431aである。第1ドキュメントアイコン431aは、第1ドキュメントを示す画像である。複数のドキュメントアイコン431のうちの1つは、第2ドキュメントアイコン431bである。第2ドキュメントアイコン431bは、第2ドキュメントを示す画像である。複数のドキュメントアイコン431のうちの1つは、第3ドキュメントアイコン431cである。第3ドキュメントアイコン431cは、第3ドキュメントを示す画像である。複数のドキュメントアイコン431のうちの1つは、第4ドキュメントアイコン431dである。第4ドキュメントアイコン431dは、第4ドキュメントを示す画像である。 One of the plurality of document icons 431 is the first document icon 431a. The first document icon 431a is an image showing the first document. One of the plurality of document icons 431 is a second document icon 431b. The second document icon 431b is an image showing the second document. One of the plurality of document icons 431 is a third document icon 431c. The third document icon 431c is an image showing the third document. One of the plurality of document icons 431 is the fourth document icon 431d. The fourth document icon 431d is an image showing the fourth document.

指示アイコン432は、ドキュメントアイコン431に対する処理を決定するための画像である。例えば、指示アイコン432が「印刷」を示す画像である場合、指示アイコン432をタッチ操作することでドキュメントアイコン431に含まれる画像の印刷が決定される。 The instruction icon 432 is an image for determining the processing for the document icon 431. For example, when the instruction icon 432 is an image indicating "print", the printing of the image included in the document icon 431 is determined by touching the instruction icon 432.

ドキュメントアイコン431に含まれる画像の印刷が決定された場合、通信部48は、印刷ジョブを示す信号を画像形成装置100に送信する。印刷ジョブには、ドキュメントアイコン431に含まれる画像をシートPに形成する指示が含まれる。 When it is decided to print the image included in the document icon 431, the communication unit 48 transmits a signal indicating a print job to the image forming apparatus 100. The print job includes an instruction to form an image included in the document icon 431 on the sheet P.

選択アイコン433は、タッチ操作されたドキュメントアイコン431の近傍に表示される。例えば、第1ドキュメントアイコン431aをタッチ操作する場合、第1ドキュメントアイコン431aの近傍に表示される。選択アイコン433は、手の形を模した画像である。タッチ操作されたアイコンの近傍に、選択アイコン433を表示することで、タッチ操作されたアイコンとタッチ操作されていないアイコンとを容易に区別できる。 The selection icon 433 is displayed in the vicinity of the touch-operated document icon 431. For example, when the first document icon 431a is touch-operated, it is displayed in the vicinity of the first document icon 431a. The selection icon 433 is an image that imitates the shape of a hand. By displaying the selection icon 433 in the vicinity of the touch-operated icon, the touch-operated icon and the non-touch-operated icon can be easily distinguished.

引き続き、図1〜図3を参照して、制御部47が実行する処理を説明する。ドキュメントアイコン431に対するタッチ操作を受け付けた後に、制御部47は、音声入力部46に音声が入力されたか否かを判定する。音声入力部46に音声が入力された場合、制御部47は、音声入力部46から入力された音声を取得する。そして、制御部47は、音声入力部46から入力された音声に基づいて、第1キーワードと、第2キーワードとを抽出する。第1キーワードは、所在情報と関連付けられる。第2キーワードは、記号に対する処理を示す。 Subsequently, the process executed by the control unit 47 will be described with reference to FIGS. 1 to 3. After accepting the touch operation on the document icon 431, the control unit 47 determines whether or not the voice is input to the voice input unit 46. When voice is input to the voice input unit 46, the control unit 47 acquires the voice input from the voice input unit 46. Then, the control unit 47 extracts the first keyword and the second keyword based on the voice input from the voice input unit 46. The first keyword is associated with the location information. The second keyword indicates the processing for the symbol.

制御部47は、抽出した第1キーワードに関連付けられた所在情報を取得する。そして、制御部47は、取得した所在情報が示す記号を取得する。更に、制御部47は、前記第2キーワードに基づいて、第1キーワードに関連付けられた所在情報が示す記号に対する処理を決定する。タッチ操作したドキュメントアイコン431に対する音声操作を受け付けるため、タッチ操作で行っていた操作を音声で操作できる。したがって、タッチ操作の回数を減らすことができる。この結果、ユーザーが煩わしく感じることを抑制できる。 The control unit 47 acquires the location information associated with the extracted first keyword. Then, the control unit 47 acquires the symbol indicated by the acquired location information. Further, the control unit 47 determines the processing for the symbol indicated by the location information associated with the first keyword based on the second keyword. Since the voice operation for the touch-operated document icon 431 is accepted, the operation performed by the touch operation can be operated by voice. Therefore, the number of touch operations can be reduced. As a result, it is possible to suppress the user from feeling annoyed.

次に、図1〜図4を参照して、制御部47が実行する処理を具体的に説明する。図4は、第2キーワードに基づいて決定された処理の一例を示す図である。図4の画面P1は、見本画像434を更に含む。見本画像434は、記号を含む画像である。図4に示すように、見本画像434は、例えば、タッチ操作されたドキュメントアイコン431の近傍に表示される。なお、見本画像434は、画面P1に表示されていればよい。また、見本画像434は、画面P1と異なる画面で表示されてもよい。画面P1と異なる画面は、見本画像434を表示するプレビュー画面である。 Next, the process executed by the control unit 47 will be specifically described with reference to FIGS. 1 to 4. FIG. 4 is a diagram showing an example of processing determined based on the second keyword. The screen P1 of FIG. 4 further includes a sample image 434. The sample image 434 is an image including symbols. As shown in FIG. 4, the sample image 434 is displayed, for example, in the vicinity of the touch-operated document icon 431. The sample image 434 may be displayed on the screen P1. Further, the sample image 434 may be displayed on a screen different from the screen P1. The screen different from the screen P1 is a preview screen for displaying the sample image 434.

見本画像434を表示する場合、制御部47は、音声入力部46から入力された音声を取得する。制御部47は、音声入力部46から入力された音声に基づいて、第1キーワードと、第2キーワードとを抽出する。第1キーワードは、例えば、「第N章から第N章」を含む。第2キーワードは、例えば、「表示」を含む。 When displaying the sample image 434, the control unit 47 acquires the voice input from the voice input unit 46. The control unit 47 extracts the first keyword and the second keyword based on the voice input from the voice input unit 46. The first keyword includes, for example, "Chapter N to Chapter N". The second keyword includes, for example, "display".

制御部47は、抽出した第1キーワードの「第N章から第N章」に関連付けられた所在情報を取得する。そして、制御部47は、取得した所在情報が示す記号を取得する。更に、制御部47は、第2キーワードに基づいて、第1キーワードに関連付けられた所在情報が示す記号に対する処理を決定する。つまり、制御部47は、タッチ操作されたドキュメントアイコン431の「第N章から第N章」を「表示」することを決定する。具体的には、図4に示すように、第1ドキュメントアイコン431aの「第N章から第N章」を示す見本画像434がタッチパネル41に表示される。したがって、タッチパネル41に記号を示す画像を表示できる。この結果、ユーザーが所望する記号であるかの確認が容易となる。なお、第1キーワードに関連付けられた所在情報がない場合及び第2キーワードの処理が禁止されている場合、制御部47は処理をキャンセルしてもよい。 The control unit 47 acquires the location information associated with the extracted first keyword “Chapter N to Chapter N”. Then, the control unit 47 acquires the symbol indicated by the acquired location information. Further, the control unit 47 determines the processing for the symbol indicated by the location information associated with the first keyword based on the second keyword. That is, the control unit 47 decides to "display" "Chapter N to Chapter N" of the touch-operated document icon 431. Specifically, as shown in FIG. 4, a sample image 434 showing “Chapter N to Chapter N” of the first document icon 431a is displayed on the touch panel 41. Therefore, an image showing a symbol can be displayed on the touch panel 41. As a result, it becomes easy to confirm whether the symbol is desired by the user. If there is no location information associated with the first keyword or if the processing of the second keyword is prohibited, the control unit 47 may cancel the processing.

次に、図1〜図5を参照して、制御部47が実行する処理を更に具体的に説明する。図5は、第2キーワードに基づいて決定された処理の別の一例を示す図である。図5に示す指示アイコン432の近傍には、選択アイコン433が表示される。図5では、第2キーワードに基づいて決定された処理は、「印刷」である。 Next, the process executed by the control unit 47 will be described in more detail with reference to FIGS. 1 to 5. FIG. 5 is a diagram showing another example of the process determined based on the second keyword. A selection icon 433 is displayed in the vicinity of the instruction icon 432 shown in FIG. In FIG. 5, the process determined based on the second keyword is “printing”.

実行する処理を「印刷」に決定する場合、制御部47は、音声入力部46から入力された音声を取得する。制御部47は、音声入力部46から入力された音声に基づいて、第1キーワードと、第2キーワードとを抽出する。第1キーワードは、例えば、「第N節から第N節」を含む。第2キーワードは、例えば、「印刷」を含む。 When the process to be executed is determined to be "print", the control unit 47 acquires the voice input from the voice input unit 46. The control unit 47 extracts the first keyword and the second keyword based on the voice input from the voice input unit 46. The first keyword includes, for example, "Sections N to N". The second keyword includes, for example, "printing".

制御部47は、抽出した第1キーワードの「第N節から第N節」に関連付けられた所在情報を取得する。そして、制御部47は、取得した所在情報が示す記号を取得する。更に、制御部47は、第2キーワードに基づいて、第1キーワードに関連付けられた所在情報が示す記号に対する処理を決定する。具体的には、制御部47は、タッチ操作されたドキュメントアイコン431の「第N節から第N節」を「印刷」することを決定する。そして、図5に示すように、制御部47は、指示アイコン432の近傍に選択アイコン433をタッチパネル41が表示するように、タッチパネル41を制御する。したがって、音声で画像をシートPに形成することを決定できる。この結果、タッチパネル41に対する入力操作の煩わしさを軽減することができる。 The control unit 47 acquires the location information associated with the extracted first keyword “Section N to Section N”. Then, the control unit 47 acquires the symbol indicated by the acquired location information. Further, the control unit 47 determines the processing for the symbol indicated by the location information associated with the first keyword based on the second keyword. Specifically, the control unit 47 determines to "print" "Sections N to N" of the touch-operated document icon 431. Then, as shown in FIG. 5, the control unit 47 controls the touch panel 41 so that the touch panel 41 displays the selection icon 433 in the vicinity of the instruction icon 432. Therefore, it is possible to decide to form the image on the sheet P by voice. As a result, it is possible to reduce the troublesomeness of the input operation on the touch panel 41.

また、図5の画面P1は、軌跡画像435を含む。軌跡画像435は、操作の順番を示す。軌跡画像435は、「タッチ操作の順番を示すアイコン」の一例に相当する。タッチ操作または音声操作によって、複数のアイコンが選択される場合、制御部47は、タッチパネル41が軌跡画像435を表示するように、タッチパネル41を制御する。この結果、複数の画像を操作する際に、操作の順番を視認することが可能となり、ユーザーの利便性が向上する。 Further, the screen P1 of FIG. 5 includes a locus image 435. The locus image 435 shows the order of operations. The locus image 435 corresponds to an example of an “icon indicating the order of touch operations”. When a plurality of icons are selected by touch operation or voice operation, the control unit 47 controls the touch panel 41 so that the touch panel 41 displays the locus image 435. As a result, when operating a plurality of images, it becomes possible to visually recognize the order of operations, which improves user convenience.

例えば、図5に示す第1ドキュメントアイコン431aをタッチ操作する。制御部47は、タッチ操作の位置とドキュメントアイコン431の表示位置とをタッチパネル41から取得する。そして、制御部47は、第1ドキュメントアイコン431aがタッチ操作されたことを特定する。更に、制御部47は、第1ドキュメントアイコン431aの近傍に選択アイコン433を表示する。 For example, the first document icon 431a shown in FIG. 5 is touch-operated. The control unit 47 acquires the position of the touch operation and the display position of the document icon 431 from the touch panel 41. Then, the control unit 47 identifies that the first document icon 431a has been touch-operated. Further, the control unit 47 displays the selection icon 433 in the vicinity of the first document icon 431a.

そして、制御部47は、音声入力部46から入力された音声に基づいて、第1キーワードと、第2キーワードとを抽出する。第1キーワードは、例えば、「10P〜20P」を含む。第2キーワードは、例えば、「印刷」を含む。 Then, the control unit 47 extracts the first keyword and the second keyword based on the voice input from the voice input unit 46. The first keyword includes, for example, "10P to 20P". The second keyword includes, for example, "printing".

制御部47は、抽出した第1キーワードの「10P〜20P」に関連付けられた所在情報を取得する。そして、制御部47は、取得した所在情報が示す記号を取得する。更に、制御部47は、第2キーワードに基づいて、第1キーワードに関連付けられた所在情報が示す記号に対する処理を決定する。具体的には、制御部47は、タッチ操作されたドキュメントアイコン431の「10P〜20P」を「印刷」することを決定する。そして、図5に示すように、制御部47は、指示アイコン432の近傍に選択アイコン433をタッチパネル41が表示するように、タッチパネル41を制御する。更に、図5に示すように、制御部47は、第1ドキュメントアイコン431aから指示アイコン432までの軌跡画像435を表示する。 The control unit 47 acquires the location information associated with the extracted first keywords “10P to 20P”. Then, the control unit 47 acquires the symbol indicated by the acquired location information. Further, the control unit 47 determines the processing for the symbol indicated by the location information associated with the first keyword based on the second keyword. Specifically, the control unit 47 decides to "print" "10P to 20P" of the touch-operated document icon 431. Then, as shown in FIG. 5, the control unit 47 controls the touch panel 41 so that the touch panel 41 displays the selection icon 433 in the vicinity of the instruction icon 432. Further, as shown in FIG. 5, the control unit 47 displays the locus image 435 from the first document icon 431a to the instruction icon 432.

次に、図1〜図6を参照して、制御部47が実行する処理を説明する。図6は、制御部47が実行する処理のフローチャートを示す。制御部47が実行する処理は、ステップS101〜ステップS105を含む。 Next, the process executed by the control unit 47 will be described with reference to FIGS. 1 to 6. FIG. 6 shows a flowchart of processing executed by the control unit 47. The process executed by the control unit 47 includes steps S101 to S105.

ステップS101において、制御部47は、画面P1を表示するか否かを判定する。画面P1を表示しない場合(ステップS101において、No)、処理はステップS101を繰り返す。画面P1を表示する場合、(ステップS101において、Yes)、処理はステップS102に進む。 In step S101, the control unit 47 determines whether or not to display the screen P1. When the screen P1 is not displayed (No in step S101), the process repeats step S101. When displaying the screen P1 (Yes in step S101), the process proceeds to step S102.

ステップS101でYesの場合、ステップS102において、制御部47は、タッチパネル41が画面P1と複数のドキュメントアイコン431と指示アイコン432とを表示するように、タッチパネル41を制御する。処理はステップS103に進む。 In the case of Yes in step S101, in step S102, the control unit 47 controls the touch panel 41 so that the touch panel 41 displays the screen P1, the plurality of document icons 431, and the instruction icon 432. The process proceeds to step S103.

ステップS103において、制御部47は選択処理を実行する。選択処理は、図7を参照して後述する。処理は、ステップS104に進む。 In step S103, the control unit 47 executes the selection process. The selection process will be described later with reference to FIG. The process proceeds to step S104.

ステップS104において、制御部47は、抽出処理を実行する。抽出処理は、図8を参照して後述する。処理は、ステップS105に進む。 In step S104, the control unit 47 executes the extraction process. The extraction process will be described later with reference to FIG. The process proceeds to step S105.

ステップS105において、制御部47は、決定処理を実行する。決定処理は、図9を参照して後述する。処理は、終了する。 In step S105, the control unit 47 executes the determination process. The determination process will be described later with reference to FIG. The process ends.

次に、図6と図7とを参照して、選択処理を説明する。図7は、制御部47が実行する選択処理を示すフローチャートである。制御部47が実行する選択処理は、ステップS201〜ステップS204を含む。選択処理は、図6のステップS103に対応する。 Next, the selection process will be described with reference to FIGS. 6 and 7. FIG. 7 is a flowchart showing a selection process executed by the control unit 47. The selection process executed by the control unit 47 includes steps S201 to S204. The selection process corresponds to step S103 of FIG.

ステップS201において、制御部47は、タッチ操作の位置をタッチパネル41から取得する。処理は、ステップS202に進む。 In step S201, the control unit 47 acquires the position of the touch operation from the touch panel 41. The process proceeds to step S202.

ステップS202において、制御部47は、ドキュメントアイコン431の表示位置をタッチパネル41から取得する。処理はステップS203に進む。 In step S202, the control unit 47 acquires the display position of the document icon 431 from the touch panel 41. The process proceeds to step S203.

ステップS203において、制御部47は、タッチ操作の位置とドキュメントアイコン431の表示位置とに基づいて、タッチ操作されたドキュメントアイコン431を特定する。処理は、ステップS204に進む。 In step S203, the control unit 47 identifies the touch-operated document icon 431 based on the touch-operated position and the display position of the document icon 431. The process proceeds to step S204.

ステップS204において、制御部47は、タッチ操作されたドキュメントアイコン431の近傍に選択アイコン433を表示するように、タッチパネル41を制御する。処理は、図6のステップS104に戻る。 In step S204, the control unit 47 controls the touch panel 41 so as to display the selection icon 433 in the vicinity of the touch-operated document icon 431. The process returns to step S104 of FIG.

次に、図6と図8を参照して、抽出処理を説明する。図8は、制御部47が実行する抽出処理を示すフローチャートである。制御部47が実行する抽出処理は、ステップS301〜ステップS305を含む。抽出処理は、図6のステップS104に対応する。 Next, the extraction process will be described with reference to FIGS. 6 and 8. FIG. 8 is a flowchart showing an extraction process executed by the control unit 47. The extraction process executed by the control unit 47 includes steps S301 to S305. The extraction process corresponds to step S104 of FIG.

ステップS301において、制御部47は、音声入力部46に音声が入力されたか否かを判定する。音声入力部46に音声が入力されていない場合(ステップS301において、No)、処理は、ステップS301を繰り返す。音声入力部46に音声が入力された場合(ステップS301において、Yes)、処理はステップS302に進む。 In step S301, the control unit 47 determines whether or not voice has been input to the voice input unit 46. When no voice is input to the voice input unit 46 (No in step S301), the process repeats step S301. When voice is input to the voice input unit 46 (Yes in step S301), the process proceeds to step S302.

ステップS302において、制御部47は、入力された音声から第1キーワードを抽出する。処理はステップS303に進む。 In step S302, the control unit 47 extracts the first keyword from the input voice. The process proceeds to step S303.

ステップS303において、制御部47は、第1キーワードに関連付けられた所在情報を取得する。処理は、ステップS304に進む。 In step S303, the control unit 47 acquires the location information associated with the first keyword. The process proceeds to step S304.

ステップS304において、制御部47は、取得した所在情報が示す記号を取得する。処理は、ステップS305に進む。 In step S304, the control unit 47 acquires the symbol indicated by the acquired location information. The process proceeds to step S305.

ステップS305において、制御部47は、第2キーワードを抽出する。処理は、図6に示すステップS105に戻る。 In step S305, the control unit 47 extracts the second keyword. The process returns to step S105 shown in FIG.

次に、図6と図9とを参照して、制御部47が実行する決定処理を説明する。図9は、制御部47が実行する決定処理のフローチャートを示す図である。制御部47が実行する決定処理は、ステップS401〜ステップS408を含む。決定処理は、図6に示すステップS105に対応する。 Next, the determination process executed by the control unit 47 will be described with reference to FIGS. 6 and 9. FIG. 9 is a diagram showing a flowchart of a determination process executed by the control unit 47. The determination process executed by the control unit 47 includes steps S401 to S408. The determination process corresponds to step S105 shown in FIG.

ステップS401において、制御部47は、第2キーワードが記号を表示する指示を含むか否かを判定する。記号を表示する指示を含まない場合(ステップS401において、No)、処理はステップS403に進む。記号を表示する指示を含む場合(ステップS401において、Yes)、処理は、ステップS402に進む。 In step S401, the control unit 47 determines whether or not the second keyword includes an instruction to display a symbol. If the instruction to display the symbol is not included (No in step S401), the process proceeds to step S403. If the instruction to display the symbol is included (Yes in step S401), the process proceeds to step S402.

ステップS401でNoの場合、ステップS403において、制御部47は、タッチパネル41が記号を表示しないことを決定する。処理は、ステップS404に進む。 If No in step S401, in step S403, the control unit 47 determines that the touch panel 41 does not display the symbol. The process proceeds to step S404.

ステップS401でYesの場合、ステップS402において、制御部47は、記号を含む見本画像434をタッチパネル41に表示することを決定する。処理は、ステップS404に進む。 In the case of Yes in step S401, in step S402, the control unit 47 decides to display the sample image 434 including the symbol on the touch panel 41. The process proceeds to step S404.

ステップS402またはステップS403の後に、ステップS404において、制御部47は、第2キーワードが記号をシートPに形成する指示を含むか否かを判定する。記号をシートPに形成する指示を含まない場合(ステップS404において、No)、処理はステップS406に進む。記号をシートPに形成する指示を含む場合(ステップS404において、Yes)、処理はステップS405に進む。 After step S402 or step S403, in step S404, the control unit 47 determines whether the second keyword includes an instruction to form a symbol on the sheet P. If the instruction to form the symbol on the sheet P is not included (No in step S404), the process proceeds to step S406. If it includes an instruction to form a symbol on the sheet P (Yes in step S404), the process proceeds to step S405.

ステップS404でNoの場合、ステップS406において、制御部47は記号をシートPに形成しないことを決定する。処理は図6に示すフローチャートに戻る。 If No in step S404, in step S406 the control unit 47 determines that the symbol is not formed on the sheet P. The process returns to the flowchart shown in FIG.

ステップS404でYesの場合、ステップS405において、制御部47は、記号をシートPに形成することを決定する。処理は、ステップS407に進む。 In the case of Yes in step S404, in step S405, the control unit 47 decides to form the symbol on the sheet P. The process proceeds to step S407.

ステップS407において、制御部47は、選択アイコン433を指示アイコン432の近傍にタッチパネル41が表示するように、タッチパネル41を制御する。 In step S407, the control unit 47 controls the touch panel 41 so that the touch panel 41 displays the selection icon 433 in the vicinity of the instruction icon 432.

ステップS408において、制御部47は、タッチパネル41が軌跡画像435を表示するように、タッチパネル41を制御する。処理は、図6に示すフローチャートに戻る。 In step S408, the control unit 47 controls the touch panel 41 so that the touch panel 41 displays the locus image 435. The process returns to the flowchart shown in FIG.

[実施形態2]
次に、図10を参照して、本発明の実施形態2を説明する。実施形態2の表示装置4は、タッチ操作されたドキュメントアイコン431の色をタッチ操作されていないドキュメントアイコン431と異なる色に変更する点と、複数のドキュメントアイコン431がタッチ操作された場合の処理とを含む点で実施形態1の表示装置4と異なる。なお、実施形態2では、実施形態1で説明した構成の説明を省略する。
[Embodiment 2]
Next, the second embodiment of the present invention will be described with reference to FIG. The display device 4 of the second embodiment changes the color of the touch-operated document icon 431 to a color different from that of the non-touch-operated document icon 431, and processes when a plurality of document icons 431 are touch-operated. It is different from the display device 4 of the first embodiment in that it includes. In the second embodiment, the description of the configuration described in the first embodiment will be omitted.

図10は、実施形態2の表示装置4を示す図である。図10に示す画面P1には、複数のドキュメントアイコン431と、指示アイコン432と、選択アイコン433と、軌跡画像435とが表示される。第1ドキュメントアイコン431aは、例えば、赤色でタッチパネル41に表示される。第2ドキュメントアイコン431bと第3ドキュメントアイコン431cとは、例えば、黄色でタッチパネル41に表示される。第4ドキュメントアイコン431dは、例えば、緑色でタッチパネル41に表示される。選択アイコン433は、第1ドキュメントアイコン431aの近傍に表示される。第1ドキュメントアイコン431aの近傍に表示される選択アイコン433は、数字の「3」を示す番号を含む。軌跡画像435は、第1ドキュメントアイコン431aから第4ドキュメントアイコン431dに向かう軌跡を含む。軌跡画像435は、第4ドキュメントアイコン431dから第1ドキュメントアイコン431aに向かう軌跡を含む。 FIG. 10 is a diagram showing a display device 4 of the second embodiment. On the screen P1 shown in FIG. 10, a plurality of document icons 431, instruction icons 432, selection icons 433, and locus images 435 are displayed. The first document icon 431a is displayed on the touch panel 41 in red, for example. The second document icon 431b and the third document icon 431c are displayed on the touch panel 41 in yellow, for example. The fourth document icon 431d is displayed on the touch panel 41 in green, for example. The selection icon 433 is displayed in the vicinity of the first document icon 431a. The selection icon 433 displayed in the vicinity of the first document icon 431a includes a number indicating the number "3". The locus image 435 includes a locus from the first document icon 431a to the fourth document icon 431d. The locus image 435 includes a locus from the fourth document icon 431d to the first document icon 431a.

実施形態2の制御部47は、タッチ操作されたドキュメントアイコン431を他のドキュメントアイコン431と異なるドキュメントアイコン431に変更する。具体的には、制御部47は、複数のドキュメントアイコン431のうちのタッチ操作されたドキュメントアイコン431を複数のドキュメントアイコン431と異なるドキュメントアイコン431にタッチパネル41が変更するように、タッチパネル41を制御する。したがって、タッチ操作されたドキュメントアイコン431を他のドキュメントアイコン431と異なるドキュメントアイコン431に変更できる。この結果、タッチ操作されたドキュメントアイコン431とタッチ操作されていないドキュメントアイコン431とを容易に区別できる。 The control unit 47 of the second embodiment changes the touch-operated document icon 431 to a document icon 431 different from the other document icons 431. Specifically, the control unit 47 controls the touch panel 41 so that the touch panel 41 changes the touch-operated document icon 431 of the plurality of document icons 431 to a document icon 431 different from the plurality of document icons 431. .. Therefore, the touch-operated document icon 431 can be changed to a document icon 431 different from other document icons 431. As a result, the touch-operated document icon 431 and the non-touch-operated document icon 431 can be easily distinguished.

図10に示すように、ドキュメントアイコン431の色を変更する場合、ドキュメントアイコン431をタッチ操作する。そして、実施形態2の制御部47は、タッチ操作されたドキュメントアイコン431の色を複数のドキュメントアイコン431と異なる色に変更するように、タッチパネル41を制御する。したがって、他のドキュメントアイコン431の色とタッチ操作されたドキュメントアイコン431の色とを異なる色にできる。この結果、タッチ操作されたドキュメントアイコン431とタッチ操作されていないドキュメントアイコン431とを容易に区別できる。 As shown in FIG. 10, when changing the color of the document icon 431, the document icon 431 is touch-operated. Then, the control unit 47 of the second embodiment controls the touch panel 41 so as to change the color of the touch-operated document icon 431 to a color different from that of the plurality of document icons 431. Therefore, the color of the other document icon 431 and the color of the touch-operated document icon 431 can be different. As a result, the touch-operated document icon 431 and the non-touch-operated document icon 431 can be easily distinguished.

また、実施形態2の制御部47は、タッチパネル41に表示された複数のドキュメントアイコン431のうちの2以上のドキュメントアイコン431がタッチ操作を受け付けた場合、タッチパネル41がタッチ操作を受け付けた2以上のドキュメントアイコン431の色をそれぞれ変更するように、タッチパネル41を制御する。2以上のドキュメントアイコン431の各々の色は、タッチ操作を受け付けた順番でそれぞれ異なる。したがって、タッチ操作された順番でドキュメントアイコン431の色がそれぞれ異なる。この結果、タッチ操作したドキュメントアイコン431の順番の識別が容易となり、ユーザーの利便性が向上する。 Further, in the control unit 47 of the second embodiment, when two or more document icons 431 out of the plurality of document icons 431 displayed on the touch panel 41 accept the touch operation, the touch panel 41 accepts the touch operation of two or more. The touch panel 41 is controlled so as to change the color of the document icon 431. Each color of the two or more document icons 431 is different in the order in which the touch operation is received. Therefore, the colors of the document icons 431 are different in the order of touch operations. As a result, it becomes easy to identify the order of the touch-operated document icons 431, and the convenience of the user is improved.

例えば、図10に示すように、第1ドキュメントアイコン431aと第4ドキュメントアイコン431dとに対してタッチ操作を行う。制御部47は、タッチ操作された第1ドキュメントアイコン431aの色を「赤色」に変更する。タッチ操作された第1ドキュメントアイコン431aの色は、第2ドキュメントアイコン431bの色と第3ドキュメントアイコン431cの色と第4ドキュメントアイコン431dの色とも異なる。 For example, as shown in FIG. 10, a touch operation is performed on the first document icon 431a and the fourth document icon 431d. The control unit 47 changes the color of the touch-operated first document icon 431a to "red". The touch-operated color of the first document icon 431a is also different from the color of the second document icon 431b, the color of the third document icon 431c, and the color of the fourth document icon 431d.

そして、制御部47は、タッチ操作された第4ドキュメントアイコン431dの色を「緑色」に変更する。タッチ操作された第4ドキュメントアイコン431dの色は、第1ドキュメントアイコン431aの色と第2ドキュメントアイコン431bの色と第3ドキュメントアイコン431cの色とも異なる。 Then, the control unit 47 changes the color of the touch-operated fourth document icon 431d to “green”. The color of the touch-operated fourth document icon 431d is also different from the color of the first document icon 431a, the color of the second document icon 431b, and the color of the third document icon 431c.

したがって、1番目にタッチ操作された第1ドキュメントアイコン431aの色と2番目にタッチ操作された第4ドキュメントアイコン431dの色とが互いに異なる。タッチ操作された順番でドキュメントアイコン431の色がそれぞれ異なるため、何番目にタッチ操作したドキュメントアイコン431かの識別が容易となる。 Therefore, the color of the first touch-operated first document icon 431a and the color of the second touch-operated fourth document icon 431d are different from each other. Since the colors of the document icons 431 are different in the order in which the touch operations are performed, it is easy to identify the number of the touch-operated document icons 431.

また、実施形態2の制御部47は、音声入力部46から入力された音声に基づいて、第3キーワードを抽出する。第3キーワードは、タッチ操作されたドキュメントアイコン431の色を含む。したがって、ドキュメントアイコン431の色に基づいて、音声でドキュメントアイコン431を操作できる。この結果、同じ色のドキュメントアイコン431の全てに同じ操作がされてしまうことを抑制できる。また、ドキュメントアイコン431を操作する際の、ユーザーの利便性が向上する。 Further, the control unit 47 of the second embodiment extracts a third keyword based on the voice input from the voice input unit 46. The third keyword includes the color of the touch-operated document icon 431. Therefore, the document icon 431 can be operated by voice based on the color of the document icon 431. As a result, it is possible to prevent the same operation from being performed on all the document icons 431 of the same color. In addition, the convenience of the user when operating the document icon 431 is improved.

また、タッチパネル41が複数のドキュメントアイコン431のうちの1つ以上のドキュメントアイコン431に対してタッチ操作を受け付ける場合、タッチ操作された順番を示す数字を選択アイコン433に表示してもよい。選択アイコン433にタッチ操作された順番を示す数字を表示することで、操作順をユーザーに通知できる。この結果、操作順をユーザーが把握できるので、ユーザーの利便性が向上する。 Further, when the touch panel 41 accepts a touch operation for one or more document icons 431 among the plurality of document icons 431, a number indicating the order of the touch operations may be displayed on the selection icon 433. By displaying a number indicating the order of touch operations on the selection icon 433, the operation order can be notified to the user. As a result, the user can grasp the operation order, which improves the convenience of the user.

例えば、最初に第1ドキュメントアイコン431aがタッチ操作される場合、制御部47は、第1ドキュメントアイコン431aの近傍に選択アイコン433を表示する。第1ドキュメントアイコン431aの近傍に表示された選択アイコン433は、タッチ操作された順番を示す数字を含む。タッチ操作された順番を示す数字は、「タッチ操作の順番を示すアイコン」の一例に相当する。数字は、例えば「1」である。 For example, when the first document icon 431a is first touch-operated, the control unit 47 displays the selection icon 433 in the vicinity of the first document icon 431a. The selection icon 433 displayed in the vicinity of the first document icon 431a includes a number indicating the order in which touch operations are performed. The number indicating the order of touch operations corresponds to an example of "icon indicating the order of touch operations". The number is, for example, "1".

次に、選択アイコン433に数字の「1」を表示した状態で、第4ドキュメントアイコン431dがタッチ操作される場合、制御部47は、第4ドキュメントアイコン431dの近傍に選択アイコン433を表示する。第4ドキュメントアイコン431dの近傍に表示された選択アイコン433は、タッチ操作された順番を示す数字を含む。数字は、例えば「2」である。 Next, when the fourth document icon 431d is touch-operated while the number "1" is displayed on the selection icon 433, the control unit 47 displays the selection icon 433 in the vicinity of the fourth document icon 431d. The selection icon 433 displayed in the vicinity of the fourth document icon 431d includes a number indicating the order in which the touch operations are performed. The number is, for example, "2".

また、選択アイコン433に数字の「2」を表示した状態で、再び第1ドキュメントアイコン431aをタッチ操作する場合、第1ドキュメントアイコン431aの近傍に表示される選択アイコン433の数字を「3」としてもよい。したがって、同じドキュメントに対して複数の処理を実行することができる。この結果、タッチパネル41を操作するときの、ユーザーの利便性が向上する。例えば、最初の操作で第1ドキュメントアイコン431aのうちの一部をタッチパネル41に表示させ、次の操作で第1ドキュメントアイコン431aのうちの一部を印刷するような指示が可能となる。 Further, when the first document icon 431a is touch-operated again with the number "2" displayed on the selection icon 433, the number of the selection icon 433 displayed in the vicinity of the first document icon 431a is set to "3". May be good. Therefore, a plurality of processes can be executed for the same document. As a result, the convenience of the user when operating the touch panel 41 is improved. For example, it is possible to instruct the touch panel 41 to display a part of the first document icon 431a in the first operation and print a part of the first document icon 431a in the next operation.

また、タッチ操作された順番を示す数字を選択アイコン433に表示する場合、第3キーワードは、選択アイコン433の順番を示す数字を含んでもよい。例えば、第3キーワードは、「1番」を含む。例えば、第3キーワードは、「2番」を含む。制御部47は、第3キーワードに基づいて、操作するドキュメントアイコン431を決定する。したがって、ドキュメントアイコン431の近傍に表示された選択アイコン433の番号に基づいて、音声でドキュメントアイコン431を操作できる。この結果、ドキュメントアイコン431を操作する際の、ユーザーの利便性が向上する。 Further, when displaying a number indicating the order of touch operations on the selection icon 433, the third keyword may include a number indicating the order of the selection icon 433. For example, the third keyword includes "No. 1". For example, the third keyword includes "No. 2". The control unit 47 determines the document icon 431 to be operated based on the third keyword. Therefore, the document icon 431 can be operated by voice based on the number of the selection icon 433 displayed in the vicinity of the document icon 431. As a result, the convenience of the user when operating the document icon 431 is improved.

次に、図11と図12とを参照して、実施形態2の制御部47が実行する選択処理を説明する。図11は、実施形態2の制御部47が実行する選択処理のフローチャートを示す図である。図12は、実施形態2の制御部47が実行する選択処理のフローチャートの続きを示す図である。図11と図12とに示す選択処理は、ステップS501〜ステップS515を含む。なお、図11と図12とに示す、ステップS501〜ステップS504及びステップS508〜ステップS511は、図7に示すステップS201〜ステップS204と同じ内容であるため、説明を省略する。したがって、ステップS506、ステップS507、ステップS511〜ステップS515を説明する。 Next, the selection process executed by the control unit 47 of the second embodiment will be described with reference to FIGS. 11 and 12. FIG. 11 is a diagram showing a flowchart of a selection process executed by the control unit 47 of the second embodiment. FIG. 12 is a diagram showing a continuation of the flowchart of the selection process executed by the control unit 47 of the second embodiment. The selection process shown in FIGS. 11 and 12 includes steps S501 to S515. Since steps S501 to S504 and steps S508 to S511 shown in FIGS. 11 and 12 have the same contents as steps S201 to S204 shown in FIG. 7, description thereof will be omitted. Therefore, step S506, step S507, and steps S511 to S515 will be described.

ステップS505において、制御部47は、タッチ操作されたドキュメントアイコン431の近傍に表示された選択アイコン433に番号を表示する。処理は、ステップS506に進む。 In step S505, the control unit 47 displays a number on the selection icon 433 displayed in the vicinity of the touch-operated document icon 431. The process proceeds to step S506.

ステップS506において、制御部47は、タッチ操作されたドキュメントアイコン431の色を、他のドキュメントアイコン431と異なる色に変更する。処理は、ステップS507に進む。 In step S506, the control unit 47 changes the color of the touch-operated document icon 431 to a color different from that of the other document icons 431. The process proceeds to step S507.

ステップS507において、制御部47は、タッチパネル41が他の位置でタッチ操作を検出したか否かを判定する。他の位置でタッチ操作を検出しない場合(ステップS506において、No)、処理は、戻る。他の位置でタッチ操作を検出した場合(ステップS506において、Yes)、処理は、ステップS508に進む。 In step S507, the control unit 47 determines whether or not the touch panel 41 has detected a touch operation at another position. If no touch operation is detected at another position (No in step S506), the process returns. If a touch operation is detected at another position (Yes in step S506), the process proceeds to step S508.

ステップS511において、制御部47は、タッチ操作されたドキュメントアイコン431の近傍に選択アイコン433を表示する。処理は、ステップS512に進む。 In step S511, the control unit 47 displays the selection icon 433 in the vicinity of the touch-operated document icon 431. The process proceeds to step S512.

ステップS512において、制御部47は、タッチ操作されたドキュメントアイコン431の近傍に表示された選択アイコン433に番号を表示する。処理は、ステップS513に進む。 In step S512, the control unit 47 displays a number on the selection icon 433 displayed in the vicinity of the touch-operated document icon 431. The process proceeds to step S513.

ステップS513において、制御部47は、タッチ操作されたドキュメントアイコン431からタッチ操作されたドキュメントアイコン431までの軌跡を示す軌跡画像435を表示する。処理は、ステップS514に進む。 In step S513, the control unit 47 displays a locus image 435 showing a locus from the touch-operated document icon 431 to the touch-operated document icon 431. The process proceeds to step S514.

ステップS514において、制御部47はタッチ操作されたドキュメントアイコン431を、他のドキュメントアイコン431と異なる色に変更する。処理は、ステップS515に進む。 In step S514, the control unit 47 changes the touch-operated document icon 431 to a color different from that of the other document icons 431. The process proceeds to step S515.

ステップS515において、制御部47は、他の位置でタッチ操作を検出したか否かを判定する。他の位置でタッチ操作を検出した場合(ステップS515において、Yes)、処理は、ステップS508に戻る。他の位置でタッチ操作を検出しない場合(ステップS515において、No)、処理は、戻る。 In step S515, the control unit 47 determines whether or not a touch operation has been detected at another position. If the touch operation is detected at another position (Yes in step S515), the process returns to step S508. If no touch operation is detected at another position (No in step S515), the process returns.

次に、図13を参照して実施形態2の制御部47が実行する抽出処理を説明する。図13は、実施形態2の制御部47が実行する抽出処理のフローチャートを示す図である。実施形態2の制御部47が実行する抽出処理は、ステップS601〜ステップS608を含む。ステップS601とステップS604〜ステップS607は、図8に示すステップS301〜ステップS305と同じ内容なため、説明を省略する。したがって、ステップS602とステップS603とステップS608とを説明する。 Next, the extraction process executed by the control unit 47 of the second embodiment will be described with reference to FIG. FIG. 13 is a diagram showing a flowchart of an extraction process executed by the control unit 47 of the second embodiment. The extraction process executed by the control unit 47 of the second embodiment includes steps S601 to S608. Since steps S601 and steps S604 to S607 have the same contents as steps S301 to S305 shown in FIG. 8, description thereof will be omitted. Therefore, step S602, step S603, and step S608 will be described.

ステップS601でYesの場合、ステップS602において、制御部47は、音声入力部46から入力された音声に基づいて、第3キーワードを抽出する。処理は、ステップS603に進む。 In the case of Yes in step S601, in step S602, the control unit 47 extracts the third keyword based on the voice input from the voice input unit 46. The process proceeds to step S603.

ステップS603において、制御部47は、第3キーワードに基づいて、操作するドキュメントアイコン431を決定する。処理はステップS604に進む。 In step S603, the control unit 47 determines the document icon 431 to be operated based on the third keyword. The process proceeds to step S604.

ステップS608において、制御部47は、音声入力部46に音声が入力されたか否かを判定する。音声入力部46に音声が入力されていない場合(ステップS608において、No)、処理は、戻る。音声入力部46に音声が入力された場合(ステップS608において、Yes)、処理はステップS604に戻る。 In step S608, the control unit 47 determines whether or not voice has been input to the voice input unit 46. If no voice is input to the voice input unit 46 (No in step S608), the process returns. When voice is input to the voice input unit 46 (Yes in step S608), the process returns to step S604.

[実施形態3]
次に、図14を参照して、本発明の実施形態3を説明する。実施形態3の表示装置4は、タッチ操作されたドキュメントアイコン431にマーク436を表示する点で実施形態1の表示装置4と実施形態2の表示装置4とも異なる。なお、実施形態3では、実施形態1及び実施形態2で説明した構成の説明を省略する。
[Embodiment 3]
Next, Embodiment 3 of the present invention will be described with reference to FIG. The display device 4 of the third embodiment is different from the display device 4 of the first embodiment and the display device 4 of the second embodiment in that the mark 436 is displayed on the touch-operated document icon 431. In the third embodiment, the description of the configuration described in the first and second embodiments will be omitted.

図14は、実施形態3の表示装置4を示す図である。図14に示す画面P1には、複数のドキュメントアイコン431と、指示アイコン432と、選択アイコン433と、軌跡画像435とが表示される。第1ドキュメントアイコン431aには、図形のようなマーク436が表示される。マーク436は、例えば、黒色の「〇」である。第2ドキュメントアイコン431bには、マーク436が表示される。マーク436は、例えば、黒色の「△」である。第1ドキュメントアイコン431aのマーク436と第2ドキュメントアイコン431bのマーク436とは、異なる。第4ドキュメントアイコン431dには、マーク436が表示される。マーク436は、例えば、赤色の「〇」である。第4ドキュメントアイコン431dのマーク436の色は、第1ドキュメントアイコン431aのマーク436と第2ドキュメントアイコン431bとも、異なる。軌跡画像435は、第1ドキュメントアイコン431aから第2ドキュメントアイコン431bに向かう軌跡を含む。軌跡画像435は、第2ドキュメントアイコン431bから第4ドキュメントアイコン431dに向かう軌跡を含む。 FIG. 14 is a diagram showing the display device 4 of the third embodiment. On the screen P1 shown in FIG. 14, a plurality of document icons 431, instruction icons 432, selection icons 433, and locus images 435 are displayed. A graphic-like mark 436 is displayed on the first document icon 431a. The mark 436 is, for example, a black “◯”. A mark 436 is displayed on the second document icon 431b. The mark 436 is, for example, a black “Δ”. The mark 436 of the first document icon 431a and the mark 436 of the second document icon 431b are different. A mark 436 is displayed on the fourth document icon 431d. The mark 436 is, for example, a red “〇”. The color of the mark 436 of the fourth document icon 431d is also different from that of the mark 436 of the first document icon 431a and the second document icon 431b. The locus image 435 includes a locus from the first document icon 431a to the second document icon 431b. The locus image 435 includes a locus from the second document icon 431b to the fourth document icon 431d.

図14に示すように、ドキュメントアイコン431にマーク436を表示する場合、ドキュメントアイコン431をタッチ操作する。そして、実施形態3の制御部47は、タッチパネル41がタッチ操作されたドキュメントアイコン431にマーク436を表示するように、タッチパネル41を制御する。したがって、他のドキュメントアイコン431とタッチ操作されたドキュメントアイコン431とを容易に区別できる。 As shown in FIG. 14, when the mark 436 is displayed on the document icon 431, the document icon 431 is touch-operated. Then, the control unit 47 of the third embodiment controls the touch panel 41 so that the touch panel 41 displays the mark 436 on the touch-operated document icon 431. Therefore, the other document icon 431 and the touch-operated document icon 431 can be easily distinguished.

例えば、タッチ操作されたドキュメントアイコン431にマーク436を表示する場合、図14に示すように、第1ドキュメントアイコン431aに対してタッチ操作を行う。制御部47は、タッチ操作された第1ドキュメントアイコン431aに「〇」を表示するように、タッチパネル41を制御する。「〇」は、マーク436の一例を示す。 For example, when the mark 436 is displayed on the touch-operated document icon 431, the touch operation is performed on the first document icon 431a as shown in FIG. The control unit 47 controls the touch panel 41 so as to display “◯” on the touch-operated first document icon 431a. “○” indicates an example of the mark 436.

また、実施形態3の制御部47は、タッチパネル41に表示された複数のドキュメントアイコン431のうちの2以上のドキュメントアイコン431がタッチ操作を受け付けた場合、タッチパネル41がタッチ操作を受け付けた2以上のドキュメントアイコン431の各々にマーク436を表示するように、タッチパネル41を制御する。2以上のドキュメントアイコン431の各々に表示されたマーク436は、タッチ操作を受け付けた順番でそれぞれ異なる。したがって、タッチ操作された順番でドキュメントアイコン431に表示されるマーク436が異なる。この結果、タッチ操作したドキュメントアイコン431の順番の識別が容易となり、ユーザーの利便性が向上する。 Further, in the control unit 47 of the third embodiment, when two or more document icons 431 out of the plurality of document icons 431 displayed on the touch panel 41 accept the touch operation, the touch panel 41 accepts the touch operation of two or more. The touch panel 41 is controlled so that the mark 436 is displayed on each of the document icons 431. The mark 436 displayed on each of the two or more document icons 431 is different in the order in which the touch operation is received. Therefore, the marks 436 displayed on the document icon 431 are different in the order of touch operations. As a result, it becomes easy to identify the order of the touch-operated document icons 431, and the convenience of the user is improved.

例えば、図14に示すように、第1ドキュメントアイコン431aと第2ドキュメントアイコン431bとに対してタッチ操作を行う。制御部47は、タッチ操作された第1ドキュメントアイコン431aと第2ドキュメントアイコン431bとのそれぞれにマーク436を表示するように、タッチパネル41を制御する。具体的には、制御部47は、第1ドキュメントアイコン431aに「〇」を示すマーク436を表示する。制御部47は、第2ドキュメントアイコン431bに「△」を示すマーク436を表示する。したがって、第1ドキュメントアイコン431aのマーク436と第2ドキュメントアイコン431bのマーク436とが互いに異なる。タッチ操作された順番でドキュメントアイコン431のマーク436がそれぞれ異なるため、何番目にタッチ操作したドキュメントアイコン431かの識別が容易となる。 For example, as shown in FIG. 14, a touch operation is performed on the first document icon 431a and the second document icon 431b. The control unit 47 controls the touch panel 41 so that the mark 436 is displayed on each of the touch-operated first document icon 431a and the second document icon 431b. Specifically, the control unit 47 displays a mark 436 indicating “◯” on the first document icon 431a. The control unit 47 displays a mark 436 indicating “Δ” on the second document icon 431b. Therefore, the mark 436 of the first document icon 431a and the mark 436 of the second document icon 431b are different from each other. Since the mark 436 of the document icon 431 is different in the order of touch operations, it is easy to identify the number of the touch-operated document icon 431.

また、実施形態3の制御部47は、タッチパネル41に表示された複数のドキュメントアイコン431のうちの2以上のドキュメントアイコン431がタッチ操作を受け付けた場合、タッチパネル41がタッチ操作を受け付けた2以上のドキュメントアイコン431の各々にマーク436を表示するように、タッチパネル41を制御する。2以上のドキュメントアイコン431の各々に表示されたマーク436の色は、タッチ操作を受け付けた順番でそれぞれ異なる。 Further, in the control unit 47 of the third embodiment, when two or more document icons 431 out of the plurality of document icons 431 displayed on the touch panel 41 accept the touch operation, the touch panel 41 accepts the touch operation of two or more. The touch panel 41 is controlled so that the mark 436 is displayed on each of the document icons 431. The color of the mark 436 displayed on each of the two or more document icons 431 is different in the order in which the touch operation is received.

例えば、図14に示すように、第1ドキュメントアイコン431aと第3ドキュメントアイコン431cとに対してタッチ操作を行う。制御部47は、タッチ操作された第1ドキュメントアイコン431aと第3ドキュメントアイコン431cとのそれぞれにマーク436を表示するように、タッチパネル41を制御する。具体的には、制御部47は、第1ドキュメントアイコン431aに黒色の「〇」を示すマーク436を表示する。具体的には、制御部47は、第3ドキュメントアイコン431cに赤色の「〇」を示すマーク436を表示する。したがって、第1ドキュメントアイコン431aのマーク436の色と第3ドキュメントアイコン431cのマーク436の色とが互いに異なる。タッチ操作された順番でドキュメントアイコン431のマーク436がそれぞれ異なるため、タッチ操作したドキュメントアイコン431の順番の識別が容易となり、ユーザーの利便性が向上する。 For example, as shown in FIG. 14, a touch operation is performed on the first document icon 431a and the third document icon 431c. The control unit 47 controls the touch panel 41 so that the mark 436 is displayed on each of the touch-operated first document icon 431a and the third document icon 431c. Specifically, the control unit 47 displays a black mark 436 indicating a black “◯” on the first document icon 431a. Specifically, the control unit 47 displays a red mark 436 indicating a red “◯” on the third document icon 431c. Therefore, the color of the mark 436 of the first document icon 431a and the color of the mark 436 of the third document icon 431c are different from each other. Since the mark 436 of the document icon 431 is different in the order of touch operations, it is easy to identify the order of the touch-operated document icons 431, and the convenience of the user is improved.

また、実施形態3の制御部47は、音声入力部46から入力された音声に基づいて、第3キーワードを抽出する。第3キーワードは、ドキュメントアイコン431に表示されたドキュメントアイコン431の色、マーク436及びマーク436の色を含む。したがって、ドキュメントアイコン431に表示されたマーク436に基づいて、音声でドキュメントアイコン431を操作できる。この結果、ドキュメントアイコン431を操作する際の、ユーザーの利便性が向上する。 Further, the control unit 47 of the third embodiment extracts the third keyword based on the voice input from the voice input unit 46. The third keyword includes the color of the document icon 431 displayed on the document icon 431, and the colors of the mark 436 and the mark 436. Therefore, the document icon 431 can be operated by voice based on the mark 436 displayed on the document icon 431. As a result, the convenience of the user when operating the document icon 431 is improved.

例えば、第3キーワードは、「マーク」を含む。例えば、第3キーワードは、「黒色のマーク」を含む。制御部47は、第3キーワードに基づいて、操作するファイルを決定する。この結果、ドキュメントアイコン431の1つ1つに対して、ユーザーの望む処理を実行できる。 For example, the third keyword includes "mark". For example, the third keyword includes a "black mark". The control unit 47 determines a file to be operated based on the third keyword. As a result, the processing desired by the user can be executed for each of the document icons 431.

次に、図15と図16とを参照して、実施形態3の制御部47が実行する選択処理を説明する。図15は、実施形態3の制御部47が実行する選択処理のフローチャートを示す図である。図16は、実施形態3の制御部47が実行する選択処理のフローチャートの続きを示す図である。図15と図16とに示す選択処理は、ステップS701〜ステップS715を含む。なお、図15と図16とに示す、ステップS701〜ステップS705、ステップS707〜ステップS713、及びステップS715は、図11と図12とに示すステップS501〜ステップS505、ステップS507〜ステップS513、及びステップS515と同じ内容であるため、説明を省略する。したがって、ステップS714のみを説明する。 Next, the selection process executed by the control unit 47 of the third embodiment will be described with reference to FIGS. 15 and 16. FIG. 15 is a diagram showing a flowchart of a selection process executed by the control unit 47 of the third embodiment. FIG. 16 is a diagram showing a continuation of the flowchart of the selection process executed by the control unit 47 of the third embodiment. The selection process shown in FIGS. 15 and 16 includes steps S701 to S715. In addition, steps S701 to S705, steps S707 to S713, and step S715 shown in FIGS. 15 and 16 are steps S501 to step S505, steps S507 to S513, and steps shown in FIGS. 11 and 12. Since the content is the same as that of S515, the description thereof will be omitted. Therefore, only step S714 will be described.

ステップS714において、制御部47は、マーク436を表示したドキュメントアイコン431と異なるマーク436をタッチ操作されたドキュメントアイコン431に表示する。処理は、ステップS715に進む。 In step S714, the control unit 47 displays the mark 436 different from the document icon 431 displaying the mark 436 on the touch-operated document icon 431. The process proceeds to step S715.

[実施形態4]
次に、図17を参照して、本発明の実施形態4を説明する。実施形態4は、表示装置4が画像形成装置100に取付けられる点で、実施形態1〜実施形態3と異なる。実施形態3の表示装置4は、画像形成装置100に取付けられる。表示装置4は、画像形成装置100の操作表示部であり得る。なお、実施形態4では、実施形態1〜実施形態3で説明した構成の説明を省略する。
[Embodiment 4]
Next, the fourth embodiment of the present invention will be described with reference to FIG. The fourth embodiment is different from the first to third embodiments in that the display device 4 is attached to the image forming apparatus 100. The display device 4 of the third embodiment is attached to the image forming device 100. The display device 4 may be an operation display unit of the image forming device 100. In the fourth embodiment, the description of the configuration described in the first to third embodiments will be omitted.

図17は、実施形態4の表示装置4を備える画像形成装置100を示す図である。図17に示す画像形成装置100は、画像形成ユニット1、画像読取ユニット2、原稿搬送ユニット3、及び表示装置4を備える。画像形成ユニット1は、シートPに画像を形成する。画像読取ユニット2は、原稿Rに形成された画像を読み取り、画像を示す画像データを生成する。原稿搬送ユニット3は、原稿Rを画像読取ユニット2に搬送する。 FIG. 17 is a diagram showing an image forming apparatus 100 including the display device 4 of the fourth embodiment. The image forming apparatus 100 shown in FIG. 17 includes an image forming unit 1, an image reading unit 2, a document conveying unit 3, and a display device 4. The image forming unit 1 forms an image on the sheet P. The image reading unit 2 reads the image formed on the document R and generates image data indicating the image. The document transport unit 3 transports the document R to the image reading unit 2.

表示装置4は、例えば、画像形成装置100の操作表示部である。表示装置4の具体的な構成は、実施形態1と同様のため、説明を省略する。 The display device 4 is, for example, an operation display unit of the image forming device 100. Since the specific configuration of the display device 4 is the same as that of the first embodiment, the description thereof will be omitted.

画像形成ユニット1は、搬送機構11、給送部12、画像形成部14、定着部15、排出部16及び排気装置20を備える。画像形成ユニット1は、搬送路Lを有する。搬送路Lは、給送部12から排出部16までシートPを案内する。搬送路Lは、給送部12から排出部16まで延びる。 The image forming unit 1 includes a transport mechanism 11, a feeding section 12, an image forming section 14, a fixing section 15, a discharging section 16, and an exhaust device 20. The image forming unit 1 has a transport path L. The transport path L guides the sheet P from the feeding section 12 to the discharging section 16. The transport path L extends from the feeding section 12 to the discharging section 16.

搬送機構11は、シートPを搬送する。 The transport mechanism 11 transports the sheet P.

給送部12は、シートPを搬送路Lへ供給する。シートPは、例えば、普通紙、コピー紙、再生紙、薄紙、厚紙、または光沢紙、またはOHP(Overhead Projector)シートである。 The feeding unit 12 supplies the sheet P to the transport path L. The sheet P is, for example, plain paper, copy paper, recycled paper, thin paper, thick paper, or glossy paper, or an OHP (Overhead Projector) sheet.

画像形成部14は、画像をシートPに形成する。 The image forming unit 14 forms an image on the sheet P.

定着部15は、シートPを加熱及び加圧し、シートPに形成された画像をシートPに定着する。 The fixing portion 15 heats and pressurizes the sheet P, and fixes the image formed on the sheet P to the sheet P.

排出部16は、シートPを画像形成装置100の外部へ排出する。定着部15がトナー画像をシートPに定着させた後、搬送機構11はシートPを定着部15から排出部16まで搬送する。そして、排出部16はトナー画像の定着したシートPを画像形成装置100の外部に排出する。 The discharge unit 16 discharges the sheet P to the outside of the image forming apparatus 100. After the fixing section 15 fixes the toner image on the sheet P, the transport mechanism 11 transports the sheet P from the fixing section 15 to the discharging section 16. Then, the discharge unit 16 discharges the sheet P on which the toner image is fixed to the outside of the image forming apparatus 100.

制御部21は、画像形成装置100の動作を制御する。制御部21は、プロセッサーと記憶部とを備える。プロセッサーは、例えばCPUを備える。記憶部は、半導体メモリーのようなメモリーを備え、HDD(Hard Disk Drive)を備えてもよい。記憶部は、制御プログラムを記憶している。プロセッサーは、制御プログラムを実行して、搬送機構11、給送部12、画像形成部14、定着部15、排出部16、記憶部22及び通信部23を制御する。 The control unit 21 controls the operation of the image forming apparatus 100. The control unit 21 includes a processor and a storage unit. The processor includes, for example, a CPU. The storage unit may include a memory such as a semiconductor memory, and may include an HDD (Hard Disk Drive). The storage unit stores the control program. The processor executes a control program to control the transport mechanism 11, the feeding unit 12, the image forming unit 14, the fixing unit 15, the discharging unit 16, the storage unit 22, and the communication unit 23.

記憶部22は、記憶装置を含み、データ及びコンピュータープログラムを記憶する。具体的には、記憶部22は、半導体メモリーのような主記憶装置、並びに、半導体メモリー及び/またはハードディスクドライブのような補助記憶装置を含む。記憶部22は、リムーバルメディアを含んでもよい。データは、画像、所在情報、及び音声パターンを含む。 The storage unit 22 includes a storage device and stores data and computer programs. Specifically, the storage unit 22 includes a main storage device such as a semiconductor memory and an auxiliary storage device such as a semiconductor memory and / or a hard disk drive. The storage unit 22 may include removable media. The data includes images, location information, and audio patterns.

通信部23は、ネットワークN(図示せず)を介して、他の表示装置4と通信する。例えば、通信部23は、ネットワークNを介して、実施形態1の表示装置4の通信部48と通信する。通信部23は、ネットワークNを介して、例えば、印刷ジョブを受信する。受信した印刷ジョブは、制御部21に送信される。制御部21は、印刷ジョブに基づいて、画像形成部14がシートPに画像を形成するように、画像形成部14を制御する。 The communication unit 23 communicates with another display device 4 via the network N (not shown). For example, the communication unit 23 communicates with the communication unit 48 of the display device 4 of the first embodiment via the network N. The communication unit 23 receives, for example, a print job via the network N. The received print job is transmitted to the control unit 21. The control unit 21 controls the image forming unit 14 so that the image forming unit 14 forms an image on the sheet P based on the print job.

以上、図面を参照しながら本発明の実施形態を説明した。但し、本発明は、上記の実施形態に限られるものではなく、その要旨を逸脱しない範囲で種々の態様において実施することが可能である。また、上記の各実施形態に開示されている複数の構成要素を適宜組み合わせることによって、種々の発明の形成が可能である。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。更に、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。図面は、理解しやすくするために、それぞれの構成要素を主体に模式的に示しており、図示された各構成要素の厚み、長さ、個数、間隔等は、図面作成の都合上から実際とは異なる。また、上記の実施形態で示す各構成要素の速度、材質、形状、寸法等は一例であって、特に限定されるものではなく、本発明の構成から実質的に逸脱しない範囲で種々の変更が可能である。 The embodiments of the present invention have been described above with reference to the drawings. However, the present invention is not limited to the above-described embodiment, and can be implemented in various embodiments without departing from the gist thereof. In addition, various inventions can be formed by appropriately combining the plurality of components disclosed in each of the above embodiments. For example, some components may be removed from all the components shown in the embodiments. Furthermore, components spanning different embodiments may be combined as appropriate. The drawings are schematically shown for each component in order to make it easier to understand, and the thickness, length, number, spacing, etc. of each of the illustrated components are actual for the convenience of drawing creation. Is different. Further, the speed, material, shape, dimensions, etc. of each component shown in the above embodiment are merely examples, and are not particularly limited, and various changes can be made without substantially deviating from the configuration of the present invention. It is possible.

(1)実施形態4では、画像形成装置100がモノクロ複写機であるが、本発明はこれに限定されない。画像形成装置がシートPにトナー像を形成すればよい。画像形成装置が、例えば、カラープリンターでもよい。また、画像形成装置が、例えば、カラー複合機でもよい。また、画像形成装置が、例えばインクジェット記録装置でもよい。 (1) In the fourth embodiment, the image forming apparatus 100 is a monochrome copier, but the present invention is not limited thereto. The image forming apparatus may form a toner image on the sheet P. The image forming apparatus may be, for example, a color printer. Further, the image forming apparatus may be, for example, a color multifunction device. Further, the image forming apparatus may be, for example, an inkjet recording apparatus.

(2)本実施形態2では、ドキュメントアイコン431の色を変更したが、本発明はこれに限らない。例えば、色を変更したドキュメントアイコン431に実施形態3のマーク436を表示してもよい。また、色を変更したドキュメントアイコン431に実施形態3の色を変更したマーク436を表示してもよい。この結果、タッチ操作したドキュメントアイコン431の順番の識別が容易となり、ユーザーの利便性が向上する。 (2) In the second embodiment, the color of the document icon 431 is changed, but the present invention is not limited to this. For example, the mark 436 of the third embodiment may be displayed on the color-changed document icon 431. Further, the color-changed mark 436 of the third embodiment may be displayed on the color-changed document icon 431. As a result, it becomes easy to identify the order of the touch-operated document icons 431, and the convenience of the user is improved.

本発明は、表示装置及び画像形成装置の分野に利用可能である。 The present invention can be used in the fields of display devices and image forming devices.

4 表示装置
14 画像形成部
41 タッチパネル
42 入力部
43 表示部
45 タッチセンサー
46 音声入力部
47 制御部
48 通信部
100 画像形成装置
431 ドキュメントアイコン(アイコン)
432 指示アイコン
433 選択アイコン
435 軌跡画像
436 マーク
P シート
4 Display device 14 Image forming unit 41 Touch panel 42 Input unit 43 Display unit 45 Touch sensor 46 Voice input unit 47 Control unit 48 Communication unit 100 Image forming device 431 Document icon (icon)
432 Instruction icon 433 Selection icon 435 Trajectory image 436 Mark P sheet

Claims (10)

アイコンを表示し、前記アイコンに対するタッチ操作を受け付けるタッチパネルと、
音声が入力される音声入力部と、
前記音声入力部から入力された音声に基づいて、第1キーワードと、第2キーワードとを抽出する制御部と
を備え、
前記アイコンには、記号と、前記記号の所在を示す所在情報とが関連付けられており、
前記第1キーワードは、前記所在情報と関連付けられており、
前記第2キーワードは、前記記号に対する処理を示し、
前記制御部は、前記第2キーワードに基づいて、前記第1キーワードに関連付けられた前記所在情報が示す前記記号に対する前記処理を決定する、表示装置。
A touch panel that displays an icon and accepts touch operations on the icon,
The voice input section where voice is input and
A control unit that extracts a first keyword and a second keyword based on the voice input from the voice input unit is provided.
The icon is associated with a symbol and location information indicating the location of the symbol.
The first keyword is associated with the location information and is associated with the location information.
The second keyword indicates processing for the symbol.
The control unit is a display device that determines the processing for the symbol indicated by the location information associated with the first keyword based on the second keyword.
前記制御部は、
複数の前記アイコンを表示するように、前記タッチパネルを制御し、
前記複数の前記アイコンのうちのタッチ操作された前記アイコンを前記複数の前記アイコンと異なるアイコンに変更するように、前記タッチパネルを制御する、請求項1に記載の表示装置。
The control unit
The touch panel is controlled so as to display a plurality of the icons.
The display device according to claim 1, wherein the touch panel is controlled so as to change the touch-operated icon among the plurality of the icons to an icon different from the plurality of the icons.
前記制御部は、タッチ操作された前記アイコンの色を前記複数の前記アイコンと異なる色に前記タッチパネルが変更するように、前記タッチパネルを制御する、請求項2に記載の表示装置。 The display device according to claim 2, wherein the control unit controls the touch panel so that the touch panel changes the color of the touch-operated icon to a color different from the plurality of the icons. 前記タッチパネルに表示された前記複数の前記アイコンのうちの2以上の前記アイコンがタッチ操作を受け付けた場合、前記制御部は、前記タッチパネルがタッチ操作を受け付けた前記2以上の前記アイコンの色をそれぞれ変更するように、前記タッチパネルを制御し、
前記2以上の前記アイコンの各々の色は、タッチ操作を受け付けた順番でそれぞれ異なる、請求項2または請求項3に記載の表示装置。
When two or more of the plurality of icons displayed on the touch panel accept the touch operation, the control unit selects the colors of the two or more icons for which the touch panel has received the touch operation. Control the touch panel to change
The display device according to claim 2 or 3, wherein each color of the two or more icons is different in the order in which touch operations are received.
前記制御部は、タッチ操作された前記アイコンにマークを表示するように、前記タッチパネルを制御する、請求項2から請求項4のいずれか1項に記載の表示装置。 The display device according to any one of claims 2 to 4, wherein the control unit controls the touch panel so as to display a mark on the touch-operated icon. 前記タッチパネルに表示された前記複数の前記アイコンのうちの2以上の前記アイコンがタッチ操作を受け付けた場合、前記制御部は、前記タッチパネルがタッチ操作を受け付けた前記2以上の前記アイコンの各々にマークを表示するように、前記タッチパネルを制御し、
前記2以上の前記アイコンの各々に表示された前記マークは、タッチ操作を受け付けた順番でそれぞれ異なる、請求項4または請求項5に記載の表示装置。
When two or more of the plurality of icons displayed on the touch panel accept the touch operation, the control unit marks each of the two or more icons on which the touch panel has received the touch operation. Control the touch panel so as to display
The display device according to claim 4 or 5, wherein the marks displayed on each of the two or more icons are different in the order in which touch operations are received.
前記2以上の前記アイコンの各々に表示された前記マークの色は、タッチ操作を受け付けた順番でそれぞれ異なる、請求項6に記載の表示装置。 The display device according to claim 6, wherein the colors of the marks displayed on each of the two or more icons are different in the order in which touch operations are received. 前記制御部は、前記音声入力部が入力された音声に基づいて、第3キーワードを抽出し、
前記第3キーワードは、前記アイコンの色、前記アイコンのマーク及び前記マークの前記色の少なくとも1つを含む、請求項3から請求項7のいずれか1項に記載の表示装置。
The control unit extracts a third keyword based on the voice input by the voice input unit.
The display device according to any one of claims 3 to 7, wherein the third keyword includes at least one of the color of the icon, the mark of the icon, and the color of the mark.
前記制御部は、前記タッチパネルが複数の前記アイコンのうちの1以上のアイコンに対してタッチ操作を受け付ける場合、タッチ操作の順番を示すアイコンを表示するように、前記タッチパネルを制御する、請求項1から請求項8のいずれか1項に記載の表示装置。 The control unit controls the touch panel so as to display an icon indicating the order of the touch operations when the touch panel accepts a touch operation for one or more of the plurality of icons. The display device according to any one of claims 8. 請求項1から請求項9のいずれか1項に記載の表示装置と、
シートに画像を形成する画像形成部とを備える、画像形成装置。
The display device according to any one of claims 1 to 9.
An image forming apparatus including an image forming portion for forming an image on a sheet.
JP2019072234A 2019-04-04 2019-04-04 Display device and image forming device Active JP7281074B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019072234A JP7281074B2 (en) 2019-04-04 2019-04-04 Display device and image forming device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019072234A JP7281074B2 (en) 2019-04-04 2019-04-04 Display device and image forming device

Publications (2)

Publication Number Publication Date
JP2020170401A true JP2020170401A (en) 2020-10-15
JP7281074B2 JP7281074B2 (en) 2023-05-25

Family

ID=72746775

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019072234A Active JP7281074B2 (en) 2019-04-04 2019-04-04 Display device and image forming device

Country Status (1)

Country Link
JP (1) JP7281074B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09237151A (en) * 1996-03-01 1997-09-09 Gijutsu Kenkyu Kumiai Shinjoho Shiyori Kaihatsu Kiko Graphical user interface
JP2006208696A (en) * 2005-01-27 2006-08-10 Sony Corp Device, method, program, and recording medium for remotely controlling application for presentation
JP2008129688A (en) * 2006-11-17 2008-06-05 Xanavi Informatics Corp Input device equipped with dial switch
JP2015125699A (en) * 2013-12-27 2015-07-06 富士ゼロックス株式会社 Information processing device, and program
JP2016085616A (en) * 2014-10-27 2016-05-19 京セラドキュメントソリューションズ株式会社 Display input device and display input control program
JP2018041376A (en) * 2016-09-09 2018-03-15 キヤノン株式会社 Display control device, method for controlling the same, and program, and storage medium
JP2019046103A (en) * 2017-08-31 2019-03-22 キヤノン株式会社 System, voice control device, and printer

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09237151A (en) * 1996-03-01 1997-09-09 Gijutsu Kenkyu Kumiai Shinjoho Shiyori Kaihatsu Kiko Graphical user interface
JP2006208696A (en) * 2005-01-27 2006-08-10 Sony Corp Device, method, program, and recording medium for remotely controlling application for presentation
JP2008129688A (en) * 2006-11-17 2008-06-05 Xanavi Informatics Corp Input device equipped with dial switch
JP2015125699A (en) * 2013-12-27 2015-07-06 富士ゼロックス株式会社 Information processing device, and program
JP2016085616A (en) * 2014-10-27 2016-05-19 京セラドキュメントソリューションズ株式会社 Display input device and display input control program
JP2018041376A (en) * 2016-09-09 2018-03-15 キヤノン株式会社 Display control device, method for controlling the same, and program, and storage medium
JP2019046103A (en) * 2017-08-31 2019-03-22 キヤノン株式会社 System, voice control device, and printer

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
LINEがぜんぶわかる本 完全保存版, JPN6023003062, 25 September 2018 (2018-09-25), pages 68 - 69, ISSN: 0004976893 *

Also Published As

Publication number Publication date
JP7281074B2 (en) 2023-05-25

Similar Documents

Publication Publication Date Title
US9900450B2 (en) Image forming apparatus, method of controlling the same, and recording medium
JP4891102B2 (en) Image forming apparatus, print preview program
EP3035184A1 (en) User interface apparatus, image forming apparatus, content operation method, and control program
US20150092228A1 (en) Display input device, image forming apparatus and method of controlling display input device
JP5494872B1 (en) Processing device and program
JP2014112778A (en) Information processing apparatus, image forming apparatus and control method of the same, and program
JP5941849B2 (en) Electronic apparatus and image forming apparatus
JP6021751B2 (en) Image processing apparatus, image processing method, and program
US9148534B2 (en) Display input device to display preview and default setting images, image forming apparatus, control method for display input device
JP6035318B2 (en) Display input device and image forming apparatus having the same
JP6197698B2 (en) Processing equipment
JP4867606B2 (en) Touch panel input device and image forming apparatus
JP6217576B2 (en) Image forming apparatus and screen operation method
JP2013131983A (en) Image forming device, image display method, and program
JP2007334025A (en) Operation apparatus and image forming apparatus
JP6323390B2 (en) Electronic device and display control program
JP7281074B2 (en) Display device and image forming device
JP2009080664A (en) Character input device, image forming apparatus and electronic equipment
JP2009080306A (en) Operating device, image forming apparatus, and electronic equipment
JP4949076B2 (en) Image forming apparatus, print preview program
JP5973405B2 (en) Input device and electronic device
JP2017207794A (en) Operation input device, image forming apparatus, and operation input method
JP6179428B2 (en) Image forming apparatus
JP2006184594A (en) Image processor
JP2010128991A (en) Display control device, image forming apparatus, and display control program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220330

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230123

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230324

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230411

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230424

R150 Certificate of patent or registration of utility model

Ref document number: 7281074

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150