JP2007086856A - User interface device - Google Patents

User interface device Download PDF

Info

Publication number
JP2007086856A
JP2007086856A JP2005271594A JP2005271594A JP2007086856A JP 2007086856 A JP2007086856 A JP 2007086856A JP 2005271594 A JP2005271594 A JP 2005271594A JP 2005271594 A JP2005271594 A JP 2005271594A JP 2007086856 A JP2007086856 A JP 2007086856A
Authority
JP
Japan
Prior art keywords
setting
processing
setting information
information
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005271594A
Other languages
Japanese (ja)
Other versions
JP4826184B2 (en
Inventor
Naoko Sato
直子 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2005271594A priority Critical patent/JP4826184B2/en
Publication of JP2007086856A publication Critical patent/JP2007086856A/en
Application granted granted Critical
Publication of JP4826184B2 publication Critical patent/JP4826184B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Or Security For Electrophotography (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To enable even a visually impaired person to easily perform a desired process on a touch-panel-type user interface device. <P>SOLUTION: A storage part 5 of a complex machine 100 stores process kind information indicating the processes executed by an image reading part 2 and an image forming part 3 and setting information indicating setting items applied to the processes. A control part 7 controls the display of a touch panel in a UI part 6 based on the information stored in the storage part 5. When a user touches a button indicating any of the setting items on the touch panel, the control part 7 creates a voice signal indicating the process to be performed at that time and the setting item applied to the process and causes a voice output part 4 to provide output. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、タッチパネルを有するユーザインタフェース装置における視覚障害者のための入力支援に関する。   The present invention relates to input support for a visually impaired person in a user interface device having a touch panel.

タッチパネルは、表示装置と入力装置を兼ねることができるため、操作が直感的でわかりやすく、また、表示画面を切り替えることで複数の機能を実現できるので、コンパクトな表示領域で多様な入力操作を行わせることができるという利点がある。そのため、タッチパネルを備えるユーザインタフェース装置(以下「タッチパネル式入力装置」という。)が、銀行のATM(Automatic Teller Machine)や駅の自動券売機、あるいはオフィスの複合機(複写機およびスキャナの機能を兼備した処理装置)など、さまざまな処理装置において利用されている。   The touch panel can be used both as a display device and an input device, so the operation is intuitive and easy to understand, and multiple functions can be realized by switching the display screen, so various input operations can be performed in a compact display area. There is an advantage that can be made. Therefore, a user interface device equipped with a touch panel (hereinafter referred to as a “touch panel type input device”) has the functions of a bank ATM (Automatic Teller Machine), a station automatic ticket vending machine, or an office multifunction device (copier and scanner). Used in various processing apparatuses.

ところが、上述の利点は晴眼者(視覚に障害のない者)にとって好都合であるに過ぎない。タッチパネル式入力装置においては、入力ボタンは視覚的にのみ認識されるものであるため、視覚障害者はどの入力ボタンがどの位置にあるのかまったく認識できない。また、表示される画面も常に一定ではないため、仮に所望の処理を行うための入力ボタンの位置を経験的に認識していたとしても、画面表示が意図していたものと異なっていた場合には、所望の処理を行うことができない。それゆえ、視覚障害者にとっては、タッチパネル式入力装置による入力操作は困難を極めるものとなる。   However, the above-described advantages are only advantageous for sighted persons (those who have no visual impairment). In the touch panel type input device, since the input buttons are recognized only visually, a visually handicapped person cannot recognize which input button is in which position. Also, since the displayed screen is not always constant, even if the position of the input button for performing the desired processing is empirically recognized, if the screen display is different from the intended one Cannot perform the desired processing. Therefore, for visually impaired persons, the input operation using the touch panel type input device is extremely difficult.

このような視覚障害者の困難を取り除くべく、視覚障害者のタッチパネル式入力装置による入力操作を支援する取り組みがなされている。例えば、特許文献1においては、ユーザがタッチパネルに接触したときに、接触した位置に関する情報を音声として出力する技術が開示されている。この技術を複写機に適用すれば、例えば、ユーザがタッチパネル上の濃度設定ボタンに触れたときには、「濃度は“ふつう”です」といったような案内が音声によって得られる。この技術によって、視覚障害者は自身が触れているボタンを認識することができるので、入力操作にまつわる不都合をある程度解消することができる。
特開平11−110107号公報
In order to remove such difficulties for visually impaired persons, efforts are being made to support input operations by visually impaired persons using a touch panel type input device. For example, Patent Document 1 discloses a technique for outputting information about a touched position as sound when a user touches a touch panel. If this technology is applied to a copying machine, for example, when the user touches a density setting button on the touch panel, guidance such as “density is“ normal ”” is obtained by voice. With this technology, visually impaired persons can recognize the buttons they are touching, so that inconveniences related to input operations can be eliminated to some extent.
JP-A-11-110107

しかし、上述した特許文献1に記載された技術のみでは解決できない不都合も依然として存在する。例えば、上述の複合機においては、コピー処理とスキャン処理が実行可能であるが、かかる場合において、視覚障害者であるユーザが、例えば「倍率は“100%”です」という案内を音声で聞いたとしても、その“100%”である倍率がどの処理の倍率のことを指しているのか不明である。このような状態で処理を実行させると、本来は“100%”の倍率で原稿のコピーを行おうとしていたのに、ユーザの意図に反して“100%”の倍率で原稿のスキャンが行われてしまうといった不都合が生じるおそれがある。   However, there are still inconveniences that cannot be solved only by the technique described in Patent Document 1 described above. For example, in the above-mentioned multifunction peripheral, copy processing and scanning processing can be performed. In such a case, a visually impaired user hears a voice message saying, for example, “the magnification is“ 100% ””. However, it is unclear to which processing magnification the magnification of “100%” indicates. When processing is executed in such a state, the original was originally copied at a magnification of “100%”, but the document was scanned at a magnification of “100%” against the user's intention. There is a risk of inconveniences such as

また、タッチパネルにおいては、ある項目を設定しようとした場合に、画面が遷移してさらに詳細あるいは具体的な設定を行えるように構成されていることが多い。例えば複合機であれば、コピー処理の「倍率」を選択するときには、「100%」や「70%」といった選択肢が提示される。このような場合においても、ユーザが例えば「倍率」というボタンを選択したときに、単に「“倍率”です」とか「“倍率”が選択できます」と説明されても、所望の倍率で処理するためには具体的にどのようにすればいいのか不明である。なお、ユーザが仮に「70%」を示す領域(入力ボタン)に接触したとしても、そのときの音声による案内が「“倍率”は“70%”です」といったものでしかなければ、他にどのような選択肢があるのか不明である。   Further, in many cases, the touch panel is configured such that when a certain item is to be set, the screen changes and further details or specific settings can be made. For example, in the case of a multifunction machine, options such as “100%” and “70%” are presented when selecting “magnification” for copy processing. Even in such a case, for example, when the user selects the button “magnification”, the processing is performed at a desired magnification even if it is simply described as ““ magnification ”” or “you can select“ magnification ””. It is unclear how to do this specifically. Even if the user touches an area (input button) indicating “70%”, if the guidance by voice at that time is merely ““ magnification ”is“ 70% ””, It is unclear whether there are such options.

つまり、上述のような従来技術においては、ユーザが視覚障害者である場合に、ユーザがタッチパネル上のある領域に触れただけでは、実行される処理を容易に特定することができないという不都合があった。
本発明は上述の事情に鑑みてなされたものであり、その目的は、タッチパネル方式のユーザインタフェース装置において、視覚障害者であっても所望の処理を容易に実行することができる技術を提供することにある。
In other words, in the conventional technology as described above, when the user is a visually handicapped person, there is a disadvantage that the process to be executed cannot be easily specified simply by touching a certain area on the touch panel. It was.
The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a technique capable of easily executing a desired process even for a visually impaired person in a touch panel type user interface device. It is in.

本発明に係るユーザインタフェース装置は、上述の目的を達成すべく、自装置に接続される処理装置が実行可能な処理を示す処理種別情報と、前記処理に適用される設定項目を示す設定情報とを関連付けて記憶する記憶手段と、前記設定項目の音声による読み上げの指示が入力される第1の入力手段と、前記処理の前記処理装置による実行開始の指示が入力される第2の入力手段と、ユーザの接触を感知する表示領域を有する表示入力手段であって、前記記憶手段に記憶された設定情報を表示領域の一部に画像として表示すると共に、ユーザが前記表示領域のある位置に接触し、その接触位置に前記画像が表示されている場合には、当該画像が示す前記設定情報を供給する表示入力手段と、前記第1の入力手段に指示が入力された場合に、前記表示入力手段が供給する設定情報に関連付けて記憶されている処理種別情報を前記記憶手段から読み出し、当該処理種別情報と当該設定情報とが示す処理及び設定項目を表す音声信号を生成する信号生成手段と、前記信号生成手段により生成された音声信号に基づいて、当該音声信号が表す処理及び設定項目を音声として発音する発音手段と、前記発音手段が前記処理及び設定項目を発音し、かつ、前記第2の入力手段に指示が入力された場合に、前記表示入力手段により供給された設定情報が示す設定項目を適用して前記処理を実行する旨の指示を前記処理装置に出力する出力手段とを備える。   In order to achieve the above object, the user interface device according to the present invention includes processing type information indicating processing that can be executed by a processing device connected to the own device, and setting information indicating setting items applied to the processing. Storage means for associating and storing, first input means for inputting an instruction to read out the setting item by voice, and second input means for inputting an instruction to start execution of the processing by the processing device Display input means having a display area for sensing a user's contact, wherein the setting information stored in the storage means is displayed as an image on a part of the display area, and the user touches a position in the display area. When the image is displayed at the contact position, the display input means for supplying the setting information indicated by the image and the instruction input to the first input means Signal generation means for reading out the processing type information stored in association with the setting information supplied by the display input means from the storage means and generating an audio signal representing the processing and setting items indicated by the processing type information and the setting information. And, based on the audio signal generated by the signal generating means, a sounding means for sounding the processing and setting items represented by the sound signal as sound, the sounding means sounds the processing and setting items, and An output means for outputting, to the processing device, an instruction to execute the processing by applying the setting item indicated by the setting information supplied by the display input means when an instruction is input to the second input means; Is provided.

かかるユーザインタフェース装置によれば、ユーザがある処理を実行しようとして表示入力手段の表示領域のある位置に接触したとき、その接触位置に表示されている画像が示す処理とその設定項目とを表す音声が出力される。そのため、ユーザが表示領域を認識できない視覚障害者であっても、自身の操作により行われる処理を確実に認識することが可能となる。   According to such a user interface device, when the user touches a certain position in the display area of the display input means in order to execute a certain process, the voice representing the process indicated by the image displayed at the touch position and the setting item is displayed. Is output. Therefore, even a visually handicapped person who cannot recognize the display area can surely recognize the process performed by his / her own operation.

また、本発明のユーザインタフェース装置において、前記設定情報は、前記処理に係る基本的な設定項目である基本設定項目を示す上位設定情報と、前記基本設定項目に係る詳細設定項目を示す下位設定情報とを有し、前記信号生成手段は、前記第1の入力手段に指示が入力された場合であって、かつ、前記表示入力手段により供給される設定情報が前記下位設定情報である場合に、当該下位設定情報が示す詳細設定項目とその基本設定項目とを表す音声信号を生成する構成であってもよい。
また、本発明のユーザインタフェース装置において、前記設定情報は、前記処理に係る基本的な設定項目である基本設定項目を示す上位設定情報と、前記基本設定項目に係る詳細設定項目を示す下位設定情報とを有し、前記信号生成手段は、前記第1の入力手段に指示が入力された場合であって、かつ、前記表示入力手段により供給される設定情報が前記上位設定情報である場合に、当該上位設定情報が示す基本設定項目とその詳細設定項目とを表す音声信号を生成する構成であってもよい。
このような構成とすることにより、ユーザは実行される処理の態様をより具体的に認識することができる。
In the user interface device of the present invention, the setting information includes upper setting information indicating basic setting items that are basic setting items related to the processing, and lower setting information indicating detailed setting items related to the basic setting items. The signal generation means is a case where an instruction is input to the first input means, and the setting information supplied by the display input means is the lower setting information, The structure which produces | generates the audio | voice signal showing the detailed setting item which the said low-order setting information shows, and its basic setting item may be sufficient.
In the user interface device of the present invention, the setting information includes upper setting information indicating basic setting items that are basic setting items related to the processing, and lower setting information indicating detailed setting items related to the basic setting items. And the signal generation means is a case where an instruction is input to the first input means, and the setting information supplied by the display input means is the upper setting information, The structure which produces | generates the audio | voice signal showing the basic setting item which the said high-order setting information shows, and its detailed setting item may be sufficient.
With this configuration, the user can more specifically recognize the mode of processing to be executed.

また、本発明のユーザインタフェース装置において、前記表示入力手段は、前記接触位置に表示されている画像が前記設定情報を示す画像でない場合に、当該接触位置の近傍に表示されている画像が示す設定情報と、当該接触位置を基準としたときの当該画像の方向を示す方向情報とを前記信号生成手段に供給し、前記信号生成手段は、前記第1の入力手段に指示が入力された場合に、前記表示入力手段により供給された設定情報と方向情報とに基づいて、当該設定情報に関連付けて記憶されている処理種別情報を前記記憶手段から読み出すと共に、当該処理種別情報と当該設定情報とが示す処理及び設定項目並びに当該方向情報が示す方向を表す音声信号を生成する構成であってもよい。
このような構成とすることにより、特定の機能を割り当てられていない領域にユーザが触れた場合であっても、ユーザが所望する処理を実行できるように案内することができる。
In the user interface device of the present invention, the display input unit may be configured to display a setting indicated by an image displayed near the contact position when the image displayed at the contact position is not an image indicating the setting information. Information and direction information indicating the direction of the image when the contact position is used as a reference are supplied to the signal generation unit, and the signal generation unit is configured to input an instruction to the first input unit. Based on the setting information and the direction information supplied by the display input means, the processing type information stored in association with the setting information is read from the storage means, and the processing type information and the setting information are The structure which produces | generates the audio | voice signal showing the process and setting item to show, and the direction which the said direction information shows may be sufficient.
With such a configuration, even when the user touches an area to which a specific function is not assigned, it is possible to guide the user to perform desired processing.

また、本発明のユーザインタフェース装置において、前記表示入力手段は、前記接触位置がある方向に移動していることを感知した場合に、当該方向を示す方向情報と、当該接触位置から見て前記方向に表示されている画像が示す設定情報とを前記信号生成手段に供給し、前記信号生成手段は、前記表示入力手段により供給された設定情報と方向情報とに基づいて、当該設定情報が示す設定項目及び当該方向情報が示す方向を表す音声信号を生成する構成であってもよい。
このような構成とすることにより、ユーザが表示領域に触れながらその接触位置をスライドさせることによって、表示領域にどのような設定項目があるのかを認識することができる。
In the user interface device of the present invention, when the display input unit senses that the contact position is moving in a certain direction, the direction information indicating the direction and the direction as viewed from the contact position are displayed. The setting information indicated by the image displayed on the screen is supplied to the signal generation means, and the signal generation means is configured to display the setting information indicated by the setting information based on the setting information and the direction information supplied by the display input means. The structure which produces | generates the audio | voice signal showing the direction which the item and the said direction information show may be sufficient.
With such a configuration, it is possible to recognize what setting items are present in the display area by sliding the contact position while the user touches the display area.

また、本発明のユーザインタフェース装置において、前記出力手段は、前記第1の入力手段に指示が入力されず、かつ、前記第2の入力手段に指示が入力された場合に、前記表示入力手段により供給された設定情報が示す設定項目を適用して前記処理を実行する旨の指示を前記処理装置に出力する構成であってもよい。
このような構成とすることにより、処理や設定項目を読み上げながら処理を実行するモード(音声読み上げモード)と、音声の読み上げを必要としないモード(ノーマルモード)とを1台で実行することができる。すなわち、晴眼者と視覚障害者とが共用しながら、双方が簡便な操作で所望の処理を行うことが可能となる。
Further, in the user interface device of the present invention, the output means causes the display input means when the instruction is not input to the first input means and the instruction is input to the second input means. The configuration may be such that an instruction to execute the processing by applying the setting item indicated by the supplied setting information is output to the processing device.
By adopting such a configuration, it is possible to execute a mode (speech reading mode) in which processing is performed while reading processing and setting items, and a mode (normal mode) in which speech reading is not required, by one unit. . That is, it becomes possible for both the sighted person and the visually handicapped person to share the desired process with a simple operation.

以下、図面を参照しながら、本発明の実施の形態について説明する。ここでは、本発明の一実施形態として、タッチパネル方式のユーザインタフェース装置を備えた複合機を例示して説明する。ここで「複合機」とは、コピー処理とスキャン処理とを実行可能な処理装置のことである。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. Here, as an embodiment of the present invention, a multifunction device including a touch panel type user interface device will be described as an example. Here, the “multifunction device” is a processing device capable of executing copy processing and scan processing.

[1.構成]
図1は、本発明の一実施形態に係る複合機100の構成を概略的に示したブロック図である。同図に示すように、複合機100は、通信部1と、画像読取部2と、画像形成部3と、音声出力部4と、記憶部5と、UI(User Interface)部6と、制御部7とを備える。
[1. Constitution]
FIG. 1 is a block diagram schematically showing the configuration of a multifunction peripheral 100 according to an embodiment of the present invention. As shown in the figure, the MFP 100 includes a communication unit 1, an image reading unit 2, an image forming unit 3, an audio output unit 4, a storage unit 5, a UI (User Interface) unit 6, and a control. Part 7.

通信部1は、コンピュータ等の外部装置とデータの送受信を行うためのネットワークインタフェース装置である。画像読取部2はいわゆるスキャナであり、ユーザが載置した原稿を光学的に読み取って原稿に応じた画像データを生成する。画像形成部3は、通信部1や画像読取部2を介して画像データを受信し、外部から供給された用紙にトナー等の色材を用いて画像を形成する。音声出力部4はいわゆるスピーカであり、供給された音声信号に従って音声を出力する。   The communication unit 1 is a network interface device for transmitting / receiving data to / from an external device such as a computer. The image reading unit 2 is a so-called scanner, and optically reads a document placed by a user and generates image data corresponding to the document. The image forming unit 3 receives image data via the communication unit 1 or the image reading unit 2 and forms an image on a sheet supplied from the outside using a color material such as toner. The audio output unit 4 is a so-called speaker, and outputs audio according to the supplied audio signal.

記憶部5はハードディスク等の記憶装置である。記憶部5は、複合機100が実行可能な処理を示す情報を記憶している。記憶部5が記憶している情報は、例えば図2のようなものである。同図が示しているのは、複合機100が実行可能な処理を示す「処理種別情報」と、各処理において適用される設定項目を示す「設定情報」である。上述したように、本実施形態の複合機100の場合はコピー処理とスキャン処理を実行可能であるから、処理種別情報には「コピー」と「スキャン」の2種類がある。   The storage unit 5 is a storage device such as a hard disk. The storage unit 5 stores information indicating processing that can be executed by the multifunction peripheral 100. The information stored in the storage unit 5 is, for example, as shown in FIG. The figure shows “processing type information” indicating processing that can be executed by the multifunction peripheral 100 and “setting information” indicating setting items applied in each processing. As described above, in the case of the MFP 100 according to the present embodiment, the copy process and the scan process can be executed, and therefore, there are two types of process type information, “copy” and “scan”.

設定情報は、処理種別情報により示される各処理をどのような態様で行うかを示す情報である。複写機や複合機でコピー処理を行う場合、コピー倍率を選択したり、用紙のサイズを選択できるのが一般的であるが、設定情報とはこの種の情報を示すものである。本実施形態の複合機100の場合、コピー処理に係る設定情報には、まず「基本コピー」、「応用コピー」および「その他設定」の3種類がある。そして、それぞれの設定項目にはより詳細な設定項目が設けられており、設定項目はツリー状の階層構造を形成している。   The setting information is information indicating how each process indicated by the process type information is performed. When copying is performed by a copying machine or a multifunction machine, it is common to select a copy magnification or a paper size, but the setting information indicates this type of information. In the case of the MFP 100 according to the present embodiment, first, there are three types of setting information related to copy processing: “basic copy”, “application copy”, and “other settings”. Each setting item is provided with more detailed setting items, and the setting items form a tree-like hierarchical structure.

例えば、「基本コピー」という設定情報には、さらに「倍率」、「濃度」、「用紙」および「原稿画質」といった設定項目を示す設定情報が係属している。ここで、「倍率」とは原稿に対してどのような倍率でコピーを行うかを示す設定情報である。この設定情報には、さらに、例えば「自動」、「100%」、「70%」といったより具体的な倍率を示す設定情報が係属している。   For example, setting information “basic copy” further includes setting information indicating setting items such as “magnification”, “density”, “paper”, and “original image quality”. Here, “magnification” is setting information indicating at what magnification a document is copied. The setting information further includes setting information indicating more specific magnifications such as “automatic”, “100%”, and “70%”.

なお、図2には図示しないが、「応用コピー」や「その他の設定」、あるいは「濃度」、「用紙」および「原稿画質」といった設定情報についても、同様の要領でより詳細な設定項目を示す設定情報がツリー状に係属している。また、スキャン処理を示す処理種別情報についても同様であり、倍率や濃度、読取解像度等についての設定情報を有している。   Although not shown in FIG. 2, for setting information such as “application copy”, “other settings”, or “density”, “paper”, and “original image quality”, more detailed setting items are set in the same manner. The setting information shown is pending in a tree shape. The same applies to the processing type information indicating the scanning processing, and has setting information about magnification, density, reading resolution, and the like.

ここで、複合機100の各部の説明に戻る。UI部6はユーザが入力操作をするためのインタフェース装置であり、タッチパネルと各種のハードボタンとを備える。UI部6の外観は、例えば図3のようになっている。同図に示すように、UI部6は、タッチパネルTPと、音声読み上げボタンB1と、スタートボタンB2とを備える。   Here, the description returns to each part of the multifunction peripheral 100. The UI unit 6 is an interface device for a user to perform an input operation, and includes a touch panel and various hard buttons. The appearance of the UI unit 6 is, for example, as shown in FIG. As shown in the figure, the UI unit 6 includes a touch panel TP, a speech reading button B1, and a start button B2.

タッチパネルTPは、複合機100の動作に係る各種画面を表示する所定の表示領域を有するとともに、この表示領域にユーザが接触したことを感知する機能を有し、その接触位置に関する情報(例えば、座標情報)を制御部7に供給する。この表示領域において、メッセージ領域t1は、複合機100のステータス(状態)を示す領域であり、例えば「コピーできます」、「スキャンできます」、「お待ちください」といったメッセージを表示する。また、タブ領域t2は、各処理に係る設定項目のうちの最も上位の設定項目(以下「基本設定項目」という。)を示しており、例えばコピー処理であれば、「基本コピー」、「応用コピー」および「その他の設定」の3種類のタブを有している。ユーザがタブ領域t2のある基本設定項目のタブを選択すると、詳細設定領域t3には選択された基本設定項目に係属する設定項目(以下「詳細設定項目」という。)が一覧表示される。   The touch panel TP has a predetermined display area for displaying various screens related to the operation of the MFP 100, and has a function of detecting that the user has touched the display area, and information on the contact position (for example, coordinates) Information) is supplied to the control unit 7. In this display area, the message area t1 is an area indicating the status (state) of the multifunction peripheral 100, and displays, for example, messages such as “Can copy”, “Can scan”, and “Please wait”. The tab area t2 indicates the highest setting item (hereinafter referred to as “basic setting item”) among the setting items related to each process. For example, in the case of copy processing, “basic copy”, “application” It has three types of tabs: “Copy” and “Other settings”. When the user selects a tab of a basic setting item in the tab area t2, setting items related to the selected basic setting item (hereinafter referred to as “detailed setting items”) are displayed in a list in the detailed setting area t3.

なお、上述の詳細設定項目において、さらに選択可能な設定項目が存在する場合には、その詳細選択項目が選択されたときには詳細設定領域t3の表示が変化する。例えば、「基本コピー」の「倍率」の選択において「その他(の倍率)」が選択された場合には、UI部6は詳細設定領域t3にテンキーを表示するなどして、ユーザが任意の倍率を入力できるようにする。   If there are further selectable setting items in the detailed setting items described above, the display of the detailed setting region t3 changes when the detailed selection item is selected. For example, when “other (magnification)” is selected in “magnification” of “basic copy”, the UI unit 6 displays a numeric keypad in the detailed setting area t3, and the user can select an arbitrary magnification. Can be entered.

また、各設定項目には、例えば、「倍率」であれば「自動」、「濃度」であれば「ふつう」、「用紙」であれば「自動」といった具合に、あらかじめ初期値が設定されていることが望ましい。このようにすれば、ユーザがタッチパネルTPで設定を行わずにすぐに処理を実行させても、その処理に最も一般的な設定項目を適用することが可能となる。   For each setting item, for example, “automatic” is set for “magnification”, “normal” is set for “density”, and “automatic” is set for “paper”. It is desirable. This makes it possible to apply the most common setting items to the process even if the user immediately executes the process without performing the setting on the touch panel TP.

音声読み上げボタンB1は押下式のハードボタンであり、押下時には複合機100が「音声読み上げモード」で動作するように構成されている。スタートボタンB2もまた押下式のハードボタンであり、押下するとユーザが設定した条件でコピーまたはスキャン処理が実行されるように構成されている。なお、音声読み上げボタンB1およびスタートボタンB2には、視覚障害者による操作時に目標となるべく、その表面に文字やマーク等の識別模様が凹凸を有して形成されている。   The voice reading button B1 is a push-type hard button, and is configured so that the multifunction device 100 operates in the “voice reading mode” when pressed. The start button B2 is also a push-type hard button, and is configured to execute copy or scan processing under the conditions set by the user when pressed. In addition, the voice reading button B1 and the start button B2 are provided with identification patterns such as letters and marks on the surfaces thereof so as to be a target when operated by a visually impaired person.

再び複合機100の各部の説明に戻る。制御部7はCPU(Central Processing Unit)やROM(Read Only Memory)、RAM(Random Access Memory)等を備えており、内部に記憶されたプログラムに基づいて上述した各部の動作を制御する。例えば、制御部7は記憶部5に記憶されたデータに基づいてタッチパネルTPに操作のための画面を表示させ、ユーザからの入力に応じてその表示を切り替えたり、ユーザが入力した設定項目を適用して画像読取部2や画像形成部3に処理を行わせる。   Returning to the description of each part of the multifunction peripheral 100 again. The control unit 7 includes a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and the like, and controls the operation of each unit described above based on a program stored therein. For example, the control unit 7 displays a screen for operation on the touch panel TP based on the data stored in the storage unit 5, switches the display according to the input from the user, or applies the setting item input by the user Then, the image reading unit 2 and the image forming unit 3 are caused to perform processing.

また、制御部7は、上述の処理種別情報や設定情報に基づいて、その処理種別情報や設定情報が示す処理や設定項目を表す音声信号を生成する機能を有している。音声信号を生成する際には、あらかじめ決められたパターンの音声メッセージを表すデータを複数記憶しておき、必要なデータを合成することにより生成するような態様が好適である。   In addition, the control unit 7 has a function of generating an audio signal representing the process or setting item indicated by the process type information or setting information based on the above-described process type information or setting information. When generating the voice signal, it is preferable to store a plurality of data representing voice messages having a predetermined pattern and generate the synthesized voice data.

[2.動作]
以上の構成のもと、複合機100はコピー処理やスキャン処理を実行する。具体的には、まず、複合機100の制御部7が、UI部6のタッチパネルTPに各種処理を開始させるための画面を表示させる。このとき行う処理がコピー処理であれば、タッチパネルTPに表示される画面は図3のような画面である。
[2. Operation]
Based on the above configuration, the multifunction peripheral 100 executes copy processing and scan processing. Specifically, first, the control unit 7 of the multifunction peripheral 100 displays a screen for starting various processes on the touch panel TP of the UI unit 6. If the process performed at this time is a copy process, the screen displayed on the touch panel TP is a screen as shown in FIG.

ここで、このとき行う処理に係る設定項目が選択され、スタートボタンB2が押下されると、制御部7は選択された設定項目を適用し、選択された処理を行うように複合機100全体を制御する。例えば、このとき選択された処理がコピー処理であれば、制御部7は選択された設定項目により示される倍率や濃度、用紙等に関する情報を画像データとともに画像形成部3に供給し、画像形成部3はその情報に従って画像を形成する。   Here, when the setting item related to the processing to be performed at this time is selected and the start button B2 is pressed, the control unit 7 applies the selected setting item and performs the entire processing of the multifunction peripheral 100 so as to perform the selected processing. Control. For example, if the process selected at this time is a copy process, the control unit 7 supplies information relating to the magnification, density, paper, and the like indicated by the selected setting item to the image forming unit 3 together with the image data. 3 forms an image according to the information.

以上の動作が、複合機100が通常行う「ノーマルモード」の動作である。一方、音声読み上げボタンB1が押下されているときには、複合機100は自装置が行う処理を音声で説明する「音声読み上げモード」で動作を行う。このときの動作について、以下では4種類の動作例を挙げて説明する。   The above operation is the “normal mode” operation that the multi-function device 100 normally performs. On the other hand, when the voice reading button B1 is pressed, the multi-function device 100 operates in a “voice reading mode” in which processing performed by the apparatus 100 is described by voice. The operation at this time will be described below with reference to four types of operation examples.

[2−1.動作例1]
まず、ユーザの接触位置が設定項目である場合、より詳細には、ユーザの接触位置に表示されている画像が設定情報に対応する画像である場合の動作を説明する。図4は、このときの複合機100の処理を示したフローチャートであり、以下、この図に沿って説明する。なお、同図においては、本動作例で説明する動作に関連のない部分については省略している。
[2-1. Operation example 1]
First, when the user's contact position is a setting item, the operation when the image displayed at the user's contact position is an image corresponding to the setting information will be described in detail. FIG. 4 is a flowchart showing the processing of the multi-function device 100 at this time, and will be described below with reference to this figure. In the figure, portions not related to the operation described in this operation example are omitted.

はじめに、複合機100の制御部7は、UI部6の音声読み上げボタンB1が押下されているか否かを判断する(S101)。このボタンが押下されていなければ(S101;NO)、制御部7は複合機100に上述した「ノーマルモード」で動作を行わせる。一方、音声読み上げボタンB1が押下されている状態であれば(S101;YES)、制御部7はUI部6を介して、ユーザがタッチパネルTPのどの位置に接触しているかを検出する(S102)。   First, the control unit 7 of the MFP 100 determines whether or not the speech reading button B1 of the UI unit 6 is pressed (S101). If this button is not pressed (S101; NO), the control unit 7 causes the multi-function device 100 to operate in the “normal mode” described above. On the other hand, if the voice reading button B1 is being pressed (S101; YES), the control unit 7 detects which position on the touch panel TP the user is touching via the UI unit 6 (S102). .

続いて制御部7は、現在表示されている画面において、その接触位置に描画された画像を特定する(S103)。さらに、制御部7はその画像の種別を判断し(S104)、設定情報に対応する画像であると判断された場合には(S104;YES)、その設定項目を読み上げるための処理を行う一方、設定情報に対応する画像でない場合には(S104;NO)、その領域に応じた処理を行う。例えば、接触位置がメッセージ領域t1である場合には、制御部7はメッセージ領域t1に表示されているメッセージを読み上げるための処理を行う。   Subsequently, the control unit 7 specifies an image drawn at the contact position on the currently displayed screen (S103). Further, the control unit 7 determines the type of the image (S104). If it is determined that the image corresponds to the setting information (S104; YES), the control unit 7 performs a process for reading the setting item, If the image does not correspond to the setting information (S104; NO), processing according to the area is performed. For example, when the contact position is the message area t1, the control unit 7 performs a process for reading a message displayed in the message area t1.

接触位置が設定情報に対応する場合、制御部7はその設定情報が示す設定項目を読み上げる処理を行うが、このとき、制御部7は接触位置に対応する設定項目だけでなく、その設定項目が係属しているより上位の設定項目についても読み上げる。すなわち、接触位置が上述の詳細設定項目である場合には、制御部7はその設定項目が係属している基本設定項目と、その基本設定項目が係属している処理とについて同時に読み上げる。また、接触位置が基本設定項目である場合には、制御部7はその基本設定項目が係属している処理について同時に読み上げる。このような動作を実現するために、制御部7は記憶部5に記憶された情報の階層構造を解析し、まだ読み上げていない上位の設定項目や処理が存在するか否かを判断する(S105)。   When the contact position corresponds to the setting information, the control unit 7 reads out the setting item indicated by the setting information. At this time, the control unit 7 displays not only the setting item corresponding to the contact position but also the setting item. Also read out the higher setting items that are pending. That is, when the contact position is the above-mentioned detailed setting item, the control unit 7 simultaneously reads out the basic setting item to which the setting item is related and the process to which the basic setting item is related. When the contact position is a basic setting item, the control unit 7 simultaneously reads out the process to which the basic setting item is pending. In order to realize such an operation, the control unit 7 analyzes the hierarchical structure of the information stored in the storage unit 5 and determines whether there is a higher setting item or process that has not yet been read (S105). ).

読み上げていない情報が存在する場合(S105;YES)、制御部7は、接触位置に対応する設定項目を表す音声信号と、その設定項目が係属している処理(および設定項目)とを表す音声信号を生成し、これを音声出力部4に供給する(S106)。また、読み上げていない情報が存在しない場合には(S105;NO)、制御部7は接触位置に対応する設定項目を表す音声信号を生成し、これを音声出力部4に供給する(S107)。音声出力部4は供給された音声信号に応じた音声を出力する(S108)。   When there is information that has not been read out (S105; YES), the control unit 7 outputs a sound signal that represents a setting item corresponding to the contact position and a process (and a setting item) that the setting item is associated with. A signal is generated and supplied to the audio output unit 4 (S106). If there is no information that has not been read out (S105; NO), the control unit 7 generates an audio signal representing a setting item corresponding to the contact position, and supplies this to the audio output unit 4 (S107). The audio output unit 4 outputs audio corresponding to the supplied audio signal (S108).

なお、「ノーマルモード」においては、ユーザが設定項目に対応する画像に接触した時点でその設定項目が選択されるが、この「音声読み上げモード」においては、その設定項目が読み上げられるだけで選択は行われない。「音声読み上げモード」においては、音声読み上げボタンB1の押下状態の解除が、ユーザによる選択が行われたことを表す動作となっている。そこで、制御部7は、音声の出力後に音声読み上げボタンB1が解除されたか否かを判断する(S109)。そして、音声読み上げボタンB1が解除されたときには(S109;YES)、制御部7は読み上げた設定項目を一時的に記憶する(S110)。また、音声読み上げボタンB1が解除されない場合には(S109;NO)、制御部7は、ユーザは読み上げた設定項目を選択しなかったと判断し、再びステップS102からの処理を行う。   In the “normal mode”, the setting item is selected when the user touches the image corresponding to the setting item. In the “speech-to-speech mode”, the setting item is simply read out and can be selected. Not done. In the “speech reading mode”, the release state of the voice reading button B1 is an operation indicating that the selection by the user has been performed. Therefore, the control unit 7 determines whether or not the voice reading button B1 has been released after the voice is output (S109). When the voice reading button B1 is released (S109; YES), the control unit 7 temporarily stores the setting item read out (S110). If the voice reading button B1 is not released (S109; NO), the control unit 7 determines that the user has not selected the setting item read out, and performs the processing from step S102 again.

音声読み上げボタンB1が解除された後、制御部7はスタートボタンB2が押下されたか否かを判断する(S111)。そして、スタートボタンB2が押下されると(S111;YES)、制御部7はステップS110において記憶した設定項目を適用した処理を画像読取部2または画像形成部3に行わせる(S112)。なお、複数の設定項目について設定を行うときには、スタートボタンB2を押下せずに上述のステップS101からの処理を繰り返す(S111;NO)。   After the voice reading button B1 is released, the control unit 7 determines whether or not the start button B2 is pressed (S111). When the start button B2 is pressed (S111; YES), the control unit 7 causes the image reading unit 2 or the image forming unit 3 to perform a process to which the setting item stored in step S110 is applied (S112). When setting a plurality of setting items, the processing from step S101 described above is repeated without pressing the start button B2 (S111; NO).

以上のように動作することで、複合機100はユーザが選択しようとしている設定項目を読み上げることができる。例えば、ユーザが図5のAの位置、すなわち、「コピー処理」の「基本コピー」にある「倍率」の設定項目であり、その倍率が「70%」である位置に接触している場合には、複合機100は、「現在、“コピー処理”の“基本コピー”の設定を行っています。あなたが現在選択している“倍率”は、“70%”です。」といった音声案内を再生する。この設定で処理を実行させたければ、ユーザは音声読み上げボタンB1を解除してスタートボタンB2を押下すればよい。また、設定を変更したい場合には、ユーザは音声読み上げボタンB1を解除せずに操作を続ければよい。音声読み上げボタンB1を解除しなければ設定は確定せず、接触位置の音声案内が改めて行われる。   By operating as described above, the multifunction peripheral 100 can read out the setting item that the user is trying to select. For example, when the user is in contact with the position A in FIG. 5, that is, the setting item of “magnification” in “basic copy” of “copy processing” and the magnification is “70%”. The MFP 100 plays the voice guidance such as “Currently,“ Copy processing ”is set to“ Basic copy ”. The“ Zoom ”currently selected is“ 70% ”.” ” To do. If the user wants to execute the process with this setting, the user may release the voice reading button B1 and press the start button B2. If the user wants to change the setting, the user may continue the operation without releasing the voice reading button B1. If the voice reading button B1 is not released, the setting is not confirmed and the voice guidance of the contact position is performed again.

以上に示した音声案内を行うことで、本実施形態の複合機100は、その後に行われる予定の処理とその設定項目を聴覚的に認識させることができる。その結果、本実施形態の複合機100によれば、視覚障害者であっても所望の処理を容易に実行することが可能となる。   By performing the voice guidance described above, the multi-function device 100 according to the present embodiment can audibly recognize the processing to be performed thereafter and the setting items. As a result, according to the MFP 100 of the present embodiment, it is possible to easily execute a desired process even for a visually impaired person.

なお、上述の図5の例において、複合機100が読み上げる設定項目は倍率のみ、すなわち、ユーザの接触位置に対応する設定項目のみであったが、このとき同時に、この時点で選択されている設定項目の全てを読み上げてもよい。つまり、図5の例で説明すれば、この場合に再生される音声案内は、「現在、“コピー処理”の“基本コピー”の設定を行っています。あなたが現在選択している“倍率”は、“70%”です。また、現在、“濃度”は“ふつう”、“用紙”は“自動”、“原稿画質”は“文字”に設定されています。」といったものとなる。このような処理は、音声信号を生成するステップ(S106)において、さらに、初期値として設定されている設定項目やステップS110において記憶された設定項目を参照した上で音声信号を生成することにより可能となる。   In the example of FIG. 5 described above, the setting item read out by the MFP 100 is only the magnification, that is, the setting item corresponding to the contact position of the user. At the same time, the setting item selected at this time is set. You may read all of the items. In other words, in the example of FIG. 5, the voice guidance to be played in this case is “Currently,“ Copy processing ”is set to“ Basic copy ”. Is “70%”, “Current” is set to “Normal”, “Paper” is set to “Automatic”, and “Original image quality” is set to “Character”. Such processing can be performed by generating an audio signal after referring to the setting items set as initial values and the setting items stored in step S110 in the step of generating audio signals (S106). It becomes.

[2−2.動作例2]
続いて、本実施形態における他の動作例を説明する。ここでは、ユーザの接触位置に対応する設定項目が、選択肢によってより詳細に設定可能である設定項目である場合について説明する。図6は、このときの複合機100の処理を示したフローチャートであり、以下、この図に沿って説明する。なお、ステップS201〜S204の処理は、上述した動作例1のステップS101〜S104の処理と同様であるため、ここでは説明を省略する。また、上述の動作例1と同様に、同図においても本動作例で説明する動作に関連のない部分については省略する。
[2-2. Operation example 2]
Subsequently, another operation example in the present embodiment will be described. Here, a case will be described in which the setting item corresponding to the contact position of the user is a setting item that can be set in more detail according to options. FIG. 6 is a flowchart showing the processing of the multi-function device 100 at this time, and will be described below with reference to this figure. In addition, since the process of step S201-S204 is the same as the process of step S101-S104 of the operation example 1 mentioned above, description is abbreviate | omitted here. Also, as in the above-described operation example 1, those parts that are not related to the operation described in this operation example are also omitted in FIG.

接触位置が設定情報に対応する場合(S204;YES)、制御部7はその設定情報に係属する下位の設定情報が存在するか否かを判断する(S205)。接触位置に対応する設定情報に下位の設定情報が係属している場合、すなわち、ユーザが選択しようとしている設定項目が詳細設定項目を選択肢として有している場合には(S205;YES)、制御部7は記憶部5に記憶された情報の階層構造を解析し、まだ読み上げていない上位の設定項目や処理が存在するか否かを判断する(S206)。なお、接触位置に対応する設定情報に下位の設定情報が係属していない場合には(S205;NO)、制御部7は上述の動作例1と同様の処理を行う。   When the contact position corresponds to the setting information (S204; YES), the control unit 7 determines whether or not lower setting information related to the setting information exists (S205). When the lower setting information is associated with the setting information corresponding to the contact position, that is, when the setting item that the user is trying to select has a detailed setting item as an option (S205; YES), control is performed. The unit 7 analyzes the hierarchical structure of the information stored in the storage unit 5 and determines whether or not there is a higher setting item or process that has not yet been read out (S206). Note that when the lower setting information is not associated with the setting information corresponding to the contact position (S205; NO), the control unit 7 performs the same processing as in the first operation example.

ここで、読み上げていない情報が存在する場合(S206;YES)、制御部7は、接触位置に対応する設定項目を表す音声信号と、その設定項目が係属している処理(および設定項目)とを表す音声信号を生成し、これを音声出力部4に供給する(S207)。また、読み上げていない情報が存在しない場合には(S206;NO)、制御部7はステップS207の処理をスキップする。その後、制御部7は接触位置に対応する設定情報に係属する下位の設定情報を記憶部5から読み出し、その設定情報が示す設定項目を表す音声信号を生成して音声出力部4に供給する(S208)。音声出力部4は、供給されたこれらの音声信号に応じた音声を出力する(S209)。   Here, when there is information that has not been read out (S206; YES), the control unit 7 performs an audio signal representing a setting item corresponding to the contact position, and a process (and setting item) to which the setting item is associated. Is generated and supplied to the audio output unit 4 (S207). When there is no information that has not been read out (S206; NO), the control unit 7 skips the process of step S207. Thereafter, the control unit 7 reads out lower setting information related to the setting information corresponding to the contact position from the storage unit 5, generates an audio signal representing the setting item indicated by the setting information, and supplies the audio signal to the audio output unit 4 ( S208). The audio output unit 4 outputs audio corresponding to these supplied audio signals (S209).

続いて制御部7は、音声の出力後に音声読み上げボタンB1が解除されたか否かを判断する(S210)。そして、音声読み上げボタンB1が解除されたときには(S210;YES)、制御部7は読み上げた設定項目を一時的に記憶する(S211)。また、音声読み上げボタンB1が解除されない場合には(S210;NO)、制御部7は、ユーザが読み上げた設定項目を選択しなかったか、あるいはこれからより詳細な設定を行うものと判断し、再びステップS202からの処理を行う。   Subsequently, the control unit 7 determines whether or not the voice reading button B1 is released after the voice is output (S210). When the voice reading button B1 is released (S210; YES), the control unit 7 temporarily stores the setting item read out (S211). If the voice reading button B1 is not released (S210; NO), the control unit 7 determines that the setting item read out by the user has not been selected or that more detailed setting will be performed from now on, and the step again is performed. The process from S202 is performed.

制御部7は、音声読み上げボタンB1が解除された後、所定の時間内にスタートボタンB2が押下されたか否かを判断する(S212)。そして、スタートボタンB2が押下されると(S212;YES)、制御部7はステップS212において記憶した設定項目を適用した処理を画像読取部2または画像形成部3に行わせる(S213)。なお、設定項目を変更したり、複数の設定項目について設定するときには、スタートボタンB2を押下せずに上述のステップS201からの処理を繰り返す(S212;NO)。   The control unit 7 determines whether or not the start button B2 is pressed within a predetermined time after the voice reading button B1 is released (S212). When the start button B2 is pressed (S212; YES), the control unit 7 causes the image reading unit 2 or the image forming unit 3 to perform a process to which the setting item stored in step S212 is applied (S213). When changing the setting item or setting a plurality of setting items, the processing from step S201 described above is repeated without pressing the start button B2 (S212; NO).

以上のように動作することで、複合機100はユーザが選択しようとしている設定項目と、その項目において設定可能な選択肢(詳細設定項目)を読み上げることができる。例えば、ユーザが図7のBの位置、すなわち、「コピー処理」の「基本コピー」のタブがある位置に接触している場合には、複合機100は、「現在、“コピー処理”の“基本コピー”の設定を行っています。ここでは、“倍率”、“用紙”、“濃度”、“原稿画質”の各項目について設定を行うことができます。」といった音声案内を再生する。なお、このとき、それぞれの項目についてあらかじめ初期値が設定されている場合には、上述の音声案内に加えて、例えば「現在、“倍率”は“自動”、“濃度”は“ふつう”、“用紙”は“自動”、“原稿画質”は“文字”に設定されています。」といった音声案内を再生してもよい。   By operating as described above, the multifunction peripheral 100 can read out the setting item that the user is trying to select and the options (detailed setting items) that can be set in the item. For example, if the user is in contact with the position B in FIG. 7, that is, the position where the “Basic Copy” tab of “Copy Processing” is located, “Basic copy” is set.Here, the voice guidance such as “Zoom”, “Paper”, “Density”, “Original image quality” can be set. ” At this time, if an initial value is set in advance for each item, in addition to the voice guidance described above, for example, “currently,“ magnification ”is“ automatic ”,“ density ”is“ normal ”,“ Voice guidance such as “Paper” is set to “Automatic” and “Original image quality” is set to “Text” may be reproduced.

また、ユーザが図7のCの位置、すなわち、「コピー処理」の「基本コピー」にある「倍率」の設定項目を示す位置に接触している場合には、複合機100は、「現在、“コピー処理”の“基本コピー”の設定を行っています。」といった音声案内に加え、「選択できる“倍率”は、“自動”、“100%”、“86%”、“70%”、“141%”、“他の倍率”の6種類です。」といった音声案内を再生する。なお、このときも、それぞれの項目についてあらかじめ初期値が設定されている場合には、その初期値を説明する音声案内を再生してもよい。   If the user touches the position indicated by C in FIG. 7, that is, the position indicating the setting item of “magnification” in “basic copy” of “copy processing”, the multi-function device 100 displays “current, In addition to voice guidance such as “Copy processing” “Basic copy setting”, “Selectable“ Scale ”is“ Auto ”,“ 100% ”,“ 86% ”,“ 70% ” The voice guidance such as “141%” and “other magnifications” is reproduced. Also at this time, if initial values are set in advance for each item, a voice guidance explaining the initial values may be reproduced.

このような音声案内を行うことで、本実施形態の複合機100は、その後に行われる予定の処理とその設定項目に加え、その処理に適用可能なより詳細な設定項目を聴覚的に認識させるとともにことが可能となる。ゆえに、この複合機100によれば、視覚障害者であっても選択的な設定項目等を迷うことなく、所望の処理を容易に実行することが可能となる。   By performing such voice guidance, the multifunction peripheral 100 according to the present embodiment aurally recognizes more detailed setting items applicable to the processing in addition to the processing to be performed thereafter and the setting items. Together with it. Therefore, according to the multifunction device 100, even a visually handicapped person can easily execute a desired process without hesitating selective setting items.

[2−3.動作例3]
上述の動作例1および2は、ユーザの接触位置が選択項目に対応する場合の動作例であった。しかし、タッチパネルTPの表示領域には、特にボタンが割り当てられていない領域も存在する。「ノーマルモード」においては、ユーザがこのような位置に接触しても特別な処理は行われないが、「音声読み上げモード」においては、視覚障害者の便宜を考慮し、ユーザがこのような位置に接触した場合にも音声案内を行うようになっている。本動作例においては、このような場合に行う処理を説明する。
[2-3. Operation example 3]
The above-described operation examples 1 and 2 are operation examples when the contact position of the user corresponds to the selection item. However, in the display area of the touch panel TP, there is an area where no button is assigned. In the “normal mode”, no special processing is performed even if the user touches such a position. However, in the “speech reading mode”, the user can use such a position for the convenience of the visually impaired. Voice guidance is also provided when touching. In this operation example, processing performed in such a case will be described.

図8は、本動作例において複合機100が行う処理を示したフローチャートである。なお、同図において、ステップS301〜S303の処理は上述の動作例1のステップS101〜S103の処理と同様である。そのため、ここではこれらのステップの説明を省略し、ステップS304の処理から説明する。   FIG. 8 is a flowchart illustrating processing performed by the multifunction peripheral 100 in this operation example. In the figure, the processing in steps S301 to S303 is the same as the processing in steps S101 to S103 in the first operation example. Therefore, description of these steps is omitted here, and processing from step S304 will be described.

ステップS303において、ユーザの接触位置に描画された画像が特定されたら、制御部7はこの画像が「非特定画像」であるか否かを判断する(S304)。ここで「非特定画像」とは、所定の設定項目を示すボタンなど、ユーザの接触時に特定の音声を読み上げることがあらかじめ定義されている画像以外の画像のことであり、例えば、タッチパネルTPの表示領域における背景部分や、ボタンとボタンの間の部分が非特定画像に相当する。   In step S303, when the image drawn at the contact position of the user is specified, the control unit 7 determines whether this image is a “non-specific image” (S304). Here, the “non-specific image” is an image other than an image that is predefined to read out a specific voice when the user touches, such as a button indicating a predetermined setting item. The background part in the region and the part between the buttons correspond to the non-specific image.

接触位置の画像が非特定画像である場合(S304;YES)、制御部7はこの非特定画像の近傍にある非特定画像以外の画像を特定する(S305)。このとき同時に、制御部7は、UI部6の画面表示に基づいて、特定された画像の接触位置から見た方向を特定する。ここで特定される方向とは、「上」、「下」、「左」、「右」のような比較的簡単な情報であってもよい。もちろん、より詳細に方向を規定するものであってもよい。なお、接触位置の画像が非特定画像でない場合には(S304;NO)、制御部7は本処理を終了し、上述した動作例1または2と同様の処理を行う。   When the image at the contact position is a non-specific image (S304; YES), the control unit 7 specifies an image other than the non-specific image near the non-specific image (S305). At the same time, the control unit 7 specifies the direction viewed from the contact position of the specified image based on the screen display of the UI unit 6. The direction specified here may be relatively simple information such as “up”, “down”, “left”, and “right”. Of course, the direction may be defined in more detail. If the image at the contact position is not a non-specific image (S304; NO), the control unit 7 ends this process and performs the same process as in the first or second operation example.

続いて制御部7は、ステップS305において特定された画像を説明するための音声信号を生成する(ステップS306)。例えば、特定された画像が設定情報に対応する画像であった場合には、制御部7はその設定情報が示す設定項目を表す音声信号を生成する。このとき制御部7は、接触位置を基準としたときのその設定項目の方向を示す情報を上述の音声信号に含める。そして、制御部7は生成した音声信号を音声出力部4に供給し、音声出力部4は供給された音声信号に応じた音声を出力する(S307)。   Subsequently, the control unit 7 generates an audio signal for explaining the image specified in step S305 (step S306). For example, when the identified image is an image corresponding to the setting information, the control unit 7 generates an audio signal representing the setting item indicated by the setting information. At this time, the control unit 7 includes information indicating the direction of the setting item with the contact position as a reference in the above-described audio signal. And the control part 7 supplies the produced | generated audio | voice signal to the audio | voice output part 4, and the audio | voice output part 4 outputs the audio | voice according to the supplied audio | voice signal (S307).

音声が出力されたら、制御部7は音声読み上げボタンB1が解除されているか否かを判断する(S308)。音声読み上げボタンB1が解除されていなければ(S308;NO)、制御部7は再びステップS302からの処理を実行する。一方、音声読み上げボタンB1が解除された場合には(S308;YES)、制御部7は本処理を終了し、上述した動作例1または2と同様の処理を行う。   When the voice is output, the control unit 7 determines whether or not the voice reading button B1 is released (S308). If the voice reading button B1 is not released (S308; NO), the control unit 7 executes the processing from step S302 again. On the other hand, when the speech reading button B1 is released (S308; YES), the control unit 7 ends this processing and performs the same processing as in the above-described operation example 1 or 2.

以上のように動作することで、本実施形態の複合機100は、ユーザが特定の機能を有するボタンに接触するまでの間、接触位置の近傍にあるボタンを音声で案内することができる。換言すれば、本実施形態の複合機100は、タッチパネルTP上のボタン以外の部分等にユーザが接触しても、その接触位置からどの方向に移動すればボタン等があるかをユーザに教示することができる。   By operating as described above, the MFP 100 according to the present embodiment can guide the buttons near the contact position by voice until the user touches the button having a specific function. In other words, even if the user touches a part other than the buttons on the touch panel TP, the MFP 100 according to the present embodiment teaches the user which direction the button should move from the contact position. be able to.

例えば、ユーザが図9のDの位置に接触している場合には、複合機100は、「現在タッチしている位置の“右”には、“コピー処理”・“基本コピー”の“用紙”を設定する項目があります。また、現在タッチしている位置の“左”には、“基本コピー”の“濃度”を設定する項目があります。」といった音声案内を再生する。さらにこのとき、「現在タッチしている位置の“上”には、“その他の設定”を選択するためのタブがあります。」といった音声案内を付加してもよい。このような音声案内を行えば、視覚障害者が所望の処理を実行するための操作を容易に行うことが可能となる。   For example, when the user is in contact with the position D in FIG. 9, the multi-function device 100 determines that “copy processing” / “basic copy” “paper” is “on the right side of the currently touched position”. "There is an item for setting" Density "for" Basic Copy "on the" left "of the currently touched position." Further, at this time, a voice guidance such as “There is a tab for selecting“ Other setting ”at“ above ”of the position currently touched” may be added. By performing such voice guidance, it becomes possible for a visually handicapped person to easily perform an operation for executing a desired process.

[2−4.動作例4]
ここでは、上述した動作例3の応用例を説明する。上述の動作例3においては、接触位置の近傍にある設定項目を、その方向とともに音声で案内する場合の処理について説明したが、本動作例は、ユーザが接触位置をスライドさせることによって接触位置が連続的に移動するときに、その移動方向にある設定項目を音声で案内するものである。
[2-4. Operation example 4]
Here, an application example of the above-described operation example 3 will be described. In the operation example 3 described above, the processing when the setting item in the vicinity of the contact position is guided by voice along with the direction thereof has been described. However, in this operation example, the contact position is changed by the user sliding the contact position. When moving continuously, the setting items in the moving direction are guided by voice.

図10は、本動作例において複合機100が行う処理を示したフローチャートであり、以下、この図に沿って説明する。なお、上述の動作例1および2と同様に、同図においても本動作例で説明する動作に関連のない部分については省略する。はじめに、複合機100の制御部7は、UI部6の音声読み上げボタンB1が押下されているか否かを判断する(S401)。このボタンが押下されていなければ(S401;NO)、制御部7は複合機100に上述した「ノーマルモード」で動作を行わせる。一方、音声読み上げボタンB1が押下されている状態であれば(S401;YES)、制御部7はUI部6を介して、ユーザがタッチパネルTPのどの位置に接触しているかを検出する(S402)。   FIG. 10 is a flowchart showing processing performed by the multifunction peripheral 100 in this operation example, and will be described below with reference to this figure. Note that, as in the first and second operation examples described above, portions that are not related to the operation described in this operation example are also omitted in FIG. First, the control unit 7 of the MFP 100 determines whether or not the speech reading button B1 of the UI unit 6 is pressed (S401). If this button is not pressed (S401; NO), the control unit 7 causes the multi-function device 100 to operate in the “normal mode” described above. On the other hand, if the voice reading button B1 is being pressed (S401; YES), the control unit 7 detects which position on the touch panel TP the user is touching via the UI unit 6 (S402). .

ここで制御部7は、ユーザによる接触位置が時間的に連続的に変化しているか否かを判断する(S403)。接触位置が時間的に変化している場合には(S403;YES)、制御部7はその移動方向を特定する(S404)。一方、接触位置に変化がない場合には(S403;NO)、制御部7は上述の動作例1ないし3のいずれかと同様の処理を行う。   Here, the control unit 7 determines whether or not the contact position by the user changes continuously in time (S403). When the contact position changes with time (S403; YES), the control unit 7 specifies the moving direction (S404). On the other hand, when there is no change in the contact position (S403; NO), the control unit 7 performs the same process as in any of the above-described operation examples 1 to 3.

接触位置の移動方向を特定したら、制御部7は現在の接触位置からその移動方向にある画像と、その画像の種別(処理種別情報や設定情報)とを特定する(S405)。そして制御部7は、特定された画像が示す処理種別情報や設定情報を記憶部5から読み出し、これらの情報を表す音声信号を生成する(S406)。このとき制御部7は、ステップS404において特定された移動方向を示す情報を音声信号に含める。そして、制御部7は生成した音声信号を音声出力部4に供給し、音声出力部4は供給された音声信号に応じた音声を出力する(S407)。   After specifying the moving direction of the contact position, the control unit 7 specifies the image in the moving direction from the current contact position and the type (processing type information and setting information) of the image (S405). And the control part 7 reads the process classification information and setting information which the specified image shows from the memory | storage part 5, and produces | generates the audio | voice signal showing such information (S406). At this time, the control unit 7 includes information indicating the moving direction specified in step S404 in the audio signal. And the control part 7 supplies the produced | generated audio | voice signal to the audio | voice output part 4, and the audio | voice output part 4 outputs the audio | voice according to the supplied audio | voice signal (S407).

音声が出力されたら、制御部7は音声読み上げボタンB1が解除されているか否かを判断する(S408)。音声読み上げボタンB1が解除されていなければ(S408;NO)、制御部7は再びステップS402からの処理を実行する。一方、音声読み上げボタンB1が解除された場合には(S408;YES)、制御部7は本処理を終了し、上述した動作例1ないし3のいずれかと同様の処理を行う。   When the voice is output, the control unit 7 determines whether or not the voice reading button B1 is released (S408). If the speech reading button B1 is not released (S408; NO), the control unit 7 executes the processing from step S402 again. On the other hand, when the speech reading button B1 is released (S408; YES), the control unit 7 ends this process and performs the same process as any one of the operation examples 1 to 3 described above.

以上のように動作することで、本実施形態の複合機100は、ユーザがタッチパネルTP上で接触位置を移動させると、その移動方向にある設定項目を音声で案内することができる。例えば、ユーザが図11のEの位置に接触し、その位置を右方向にスライドさせた場合には、複合機100は、「現在の位置から“右”に移動すると、“基本コピー”の“濃度”を設定することができます。」といった音声案内を再生する。   By operating as described above, when the user moves the contact position on the touch panel TP, the MFP 100 according to the present embodiment can guide the setting items in the moving direction by voice. For example, when the user touches the position E in FIG. 11 and slides the position to the right, the multi-function device 100 will change the “basic copy” A voice guidance such as “You can set the density” is played.

このような音声案内を行えるように構成することで、視覚障害者であるユーザは、例えば操作の途中で指をタッチパネルTPから離してしまったときなどに、タッチパネルTPの適当な位置に触れてからスライドさせることにより、その指をもとの位置へと簡単に戻すことができる。また、タッチパネルTPに指で触れ、その指を適当な方向にスライドさせていくことによって、タッチパネルTPの画面上にある設定項目を把握することができる。   By configuring so that such voice guidance can be performed, a visually impaired user touches an appropriate position on the touch panel TP when, for example, the finger is removed from the touch panel TP during the operation. By sliding, the finger can be easily returned to the original position. Further, by touching the touch panel TP with a finger and sliding the finger in an appropriate direction, the setting items on the screen of the touch panel TP can be grasped.

[3.変形例]
以上においては一の好適な実施形態を挙げて本発明を説明したが、本発明は上述した実施形態に限定されるものではなく、種々の変形が可能である。以下ではその変形例をいくつか示す。
[3. Modified example]
Although the present invention has been described with reference to one preferred embodiment, the present invention is not limited to the above-described embodiment, and various modifications can be made. Some of the modifications are shown below.

上述の実施形態に示した音声案内は、いずれも一例に過ぎない。音声案内には、必要に応じた適当なメッセージを用いればよい。上述の実施形態においては、便宜上、処理や設定項目を表す語の前後に適当な文言を付加した状態の音声を出力しているが、もちろん、処理や設定項目を表す語のみを順次出力してもよい。   The voice guidance shown in the above-described embodiments is only an example. For the voice guidance, an appropriate message may be used as necessary. In the embodiment described above, for the sake of convenience, the sound is output in a state where appropriate words are added before and after the word representing the process or the setting item. Of course, only the word representing the process or the setting item is sequentially output. Also good.

また、上述の実施形態においては、音声を出力するのは接触位置を検出した後のみであったが、例えば、スタートボタンB2を押下したタイミングで設定項目等を復唱し、ユーザが再度確認できるようにしてもよい。あるいは、音声読み上げボタンB1とスタートボタンB2を同時に押下することで設定項目を復唱し、その後音声読み上げボタンB1のみ押下状態を解除することで処理が開始されるように構成してもよい。   In the above-described embodiment, the sound is output only after the contact position is detected. However, for example, the setting item or the like is repeated at the timing when the start button B2 is pressed, so that the user can confirm again. It may be. Alternatively, the setting item may be repeated by simultaneously pressing the voice reading button B1 and the start button B2, and then the processing may be started by releasing only the voice reading button B1.

また、上述の実施形態においては、視覚障害者の便宜のため、音声読み上げボタンB1およびスタートボタンB2をハードボタンにて構成している。しかしながら、もちろん、これらのボタンはハードボタンである必要はなく、タッチパネル上のある領域に割り当てられる構成であってもよい。   Further, in the above-described embodiment, for the convenience of the visually impaired, the speech reading button B1 and the start button B2 are configured by hard buttons. However, of course, these buttons do not have to be hard buttons, and may be configured to be assigned to a certain area on the touch panel.

また、上述の実施形態においては、音声読み上げボタンB1とスタートボタンB2を異なるハードボタンにて構成しているが、1つのボタンで双方の機能を兼ねることもできる。例えば、あるボタンを押下した状態で音声の読み上げの指示が入力され、このボタンの押下状態を解除することで処理の実行開始の指示が入力されるように構成すればよい。   In the above-described embodiment, the voice reading button B1 and the start button B2 are configured by different hard buttons. However, one button can serve both functions. For example, it may be configured such that a voice reading instruction is input in a state where a certain button is pressed, and a process execution start instruction is input by releasing this button pressing state.

また、上述の実施形態においては、ユーザからの入力を受け付けるユーザインタフェース装置とコピー処理およびスキャン処理を実行する処理装置とを一体化した複合機について説明したが、ユーザインタフェース装置と処理装置はそれぞれ独立した装置であってもよい。   In the above-described embodiment, the multi-function apparatus in which the user interface device that receives input from the user and the processing device that executes the copy processing and the scanning processing is integrated has been described. However, the user interface device and the processing device are independent of each other. It may be a device that has been used.

さらに、この処理装置は複写機やスキャナに限定されず、例えば、ATMや自動券売機など、タッチパネルを備える種々の処理装置に適用可能である。また、ディスプレイにタッチパネルの機能を搭載することによって、パーソナルコンピュータ等の計算機に適用することも可能である。例えば、処理装置がATMの場合であれば、残高照会や入出金、振込等が上述の「処理種別情報」の一例に相当する。   Further, the processing apparatus is not limited to a copying machine or a scanner, and can be applied to various processing apparatuses including a touch panel such as an ATM or an automatic ticket vending machine. Moreover, it is also possible to apply to a computer such as a personal computer by mounting a touch panel function on the display. For example, if the processing apparatus is an ATM, balance inquiry, deposit / withdrawal, transfer, etc. correspond to an example of the above-mentioned “processing type information”.

本発明の一実施形態に係る処理装置である複合機の構成を概略的に示したブロック図である。1 is a block diagram schematically showing the configuration of a multifunction machine that is a processing apparatus according to an embodiment of the present invention. FIG. 複合機が記憶部に記憶している情報を例示した図である。6 is a diagram illustrating information stored in a storage unit by a multifunction machine. FIG. 複合機のUI部の外観を例示した図である。FIG. 3 is a diagram illustrating an appearance of a UI unit of a multifunction machine. 複合機が行う処理を示したフローチャートである(動作例1)。6 is a flowchart illustrating processing performed by the multifunction peripheral (operation example 1). ユーザの接触位置を説明するための図である。It is a figure for demonstrating a user's contact position. 複合機が行う処理を示したフローチャートである(動作例2)。10 is a flowchart illustrating processing performed by the multifunction machine (operation example 2). ユーザの接触位置を説明するための図である。It is a figure for demonstrating a user's contact position. 複合機が行う処理を示したフローチャートである(動作例3)。10 is a flowchart illustrating processing performed by the multifunction peripheral (operation example 3). ユーザの接触位置を説明するための図である。It is a figure for demonstrating a user's contact position. 複合機が行う処理を示したフローチャートである(動作例4)。10 is a flowchart illustrating processing performed by the multifunction peripheral (operation example 4). ユーザの接触位置を説明するための図である。It is a figure for demonstrating a user's contact position.

符号の説明Explanation of symbols

100…複合機、101…通信部、102…画像読取部、103…画像形成部、104…音声出力部、105…記憶部、106…UI部、107…制御部 DESCRIPTION OF SYMBOLS 100 ... Multifunction machine 101 ... Communication part 102 ... Image reading part 103 ... Image forming part 104 ... Audio | voice output part 105 ... Memory | storage part 106 ... UI part 107 ... Control part

Claims (6)

自装置に接続される処理装置が実行可能な処理を示す処理種別情報と、前記処理に適用される設定項目を示す設定情報とを関連付けて記憶する記憶手段と、
前記設定項目の音声による読み上げの指示が入力される第1の入力手段と、
前記処理の前記処理装置による実行開始の指示が入力される第2の入力手段と、
ユーザの接触を感知する表示領域を有する表示入力手段であって、前記記憶手段に記憶された設定情報を表示領域の一部に画像として表示すると共に、ユーザが前記表示領域のある位置に接触し、その接触位置に前記画像が表示されている場合には、当該画像が示す前記設定情報を供給する表示入力手段と、
前記第1の入力手段に指示が入力された場合に、前記表示入力手段が供給する設定情報に関連付けて記憶されている処理種別情報を前記記憶手段から読み出し、当該処理種別情報と当該設定情報とが示す処理及び設定項目を表す音声信号を生成する信号生成手段と、
前記信号生成手段により生成された音声信号に基づいて、当該音声信号が表す処理及び設定項目を音声として発音する発音手段と、
前記発音手段が前記処理及び設定項目を発音し、かつ、前記第2の入力手段に指示が入力された場合に、前記表示入力手段により供給された設定情報が示す設定項目を適用して前記処理を実行する旨の指示を前記処理装置に出力する出力手段と
を備えることを特徴とするユーザインタフェース装置。
A storage unit that associates and stores processing type information indicating processing that can be executed by a processing device connected to the own device, and setting information indicating setting items applied to the processing;
First input means for inputting an instruction to read out the setting item by voice;
A second input means for inputting an instruction to start execution of the processing by the processing device;
Display input means having a display area for sensing a user's contact, wherein the setting information stored in the storage means is displayed as an image on a part of the display area, and the user touches a position in the display area. When the image is displayed at the contact position, display input means for supplying the setting information indicated by the image;
When an instruction is input to the first input unit, the processing type information stored in association with the setting information supplied by the display input unit is read from the storage unit, and the processing type information, the setting information, Signal generating means for generating an audio signal representing the processing and setting items indicated by:
On the basis of the sound signal generated by the signal generation means, sound generation means for generating the processing and setting items represented by the sound signal as sound,
When the sound generation unit sounds the process and the setting item and an instruction is input to the second input unit, the process is performed by applying the setting item indicated by the setting information supplied by the display input unit. And an output means for outputting an instruction to execute the processing to the processing device.
前記設定情報は、
前記処理に係る基本的な設定項目である基本設定項目を示す上位設定情報と、
前記基本設定項目に係る詳細設定項目を示す下位設定情報とを有し、
前記信号生成手段は、
前記第1の入力手段に指示が入力された場合であって、かつ、前記表示入力手段により供給される設定情報が前記下位設定情報である場合に、当該下位設定情報が示す詳細設定項目とその基本設定項目とを表す音声信号を生成する
ことを特徴とする請求項1に記載のユーザインタフェース装置。
The setting information includes
Upper setting information indicating basic setting items which are basic setting items related to the processing;
Lower setting information indicating detailed setting items related to the basic setting items,
The signal generating means includes
When an instruction is input to the first input unit and the setting information supplied by the display input unit is the lower setting information, the detailed setting item indicated by the lower setting information and its The user interface device according to claim 1, wherein an audio signal representing a basic setting item is generated.
前記設定情報は、
前記処理に係る基本的な設定項目である基本設定項目を示す上位設定情報と、
前記基本設定項目に係る詳細設定項目を示す下位設定情報とを有し、
前記信号生成手段は、
前記第1の入力手段に指示が入力された場合であって、かつ、前記表示入力手段により供給される設定情報が前記上位設定情報である場合に、当該上位設定情報が示す基本設定項目とその詳細設定項目とを表す音声信号を生成する
ことを特徴とする請求項1に記載のユーザインタフェース装置。
The setting information includes
Upper setting information indicating basic setting items which are basic setting items related to the processing;
Lower setting information indicating detailed setting items related to the basic setting items,
The signal generating means includes
When an instruction is input to the first input unit and the setting information supplied by the display input unit is the upper setting information, the basic setting item indicated by the upper setting information and its The user interface device according to claim 1, wherein an audio signal representing a detailed setting item is generated.
前記表示入力手段は、
前記接触位置に表示されている画像が前記設定情報を示す画像でない場合に、当該接触位置の近傍に表示されている画像が示す設定情報と、当該接触位置を基準としたときの当該画像の方向を示す方向情報とを前記信号生成手段に供給し、
前記信号生成手段は、
前記第1の入力手段に指示が入力された場合に、前記表示入力手段により供給された設定情報と方向情報とに基づいて、当該設定情報に関連付けて記憶されている処理種別情報を前記記憶手段から読み出すと共に、当該処理種別情報と当該設定情報とが示す処理及び設定項目並びに当該方向情報が示す方向を表す音声信号を生成する
ことを特徴とする請求項1に記載のユーザインタフェース装置。
The display input means includes
When the image displayed at the contact position is not an image indicating the setting information, the setting information indicated by the image displayed in the vicinity of the contact position and the direction of the image with reference to the contact position Direction information indicating the signal generating means,
The signal generating means includes
When an instruction is input to the first input means, based on the setting information and direction information supplied by the display input means, processing type information stored in association with the setting information is stored in the storage means. The user interface device according to claim 1, further comprising: generating an audio signal representing a process and setting items indicated by the processing type information and the setting information and a direction indicated by the direction information.
前記表示入力手段は、
前記接触位置がある方向に移動していることを感知した場合に、当該方向を示す方向情報と、当該接触位置から見て前記方向に表示されている画像が示す設定情報とを前記信号生成手段に供給し、
前記信号生成手段は、
前記表示入力手段により供給された設定情報と方向情報とに基づいて、当該設定情報が示す設定項目及び当該方向情報が示す方向を表す音声信号を生成する
ことを特徴とする請求項1に記載のユーザインタフェース装置。
The display input means includes
When it is detected that the contact position is moving in a certain direction, the signal generation means includes direction information indicating the direction and setting information indicated by an image displayed in the direction when viewed from the contact position. To supply
The signal generating means includes
The audio signal representing the setting item indicated by the setting information and the direction indicated by the direction information is generated based on the setting information and the direction information supplied by the display input unit. User interface device.
前記出力手段は、
前記第1の入力手段に指示が入力されず、かつ、前記第2の入力手段に指示が入力された場合に、前記表示入力手段により供給された設定情報が示す設定項目を適用して前記処理を実行する旨の指示を前記処理装置に出力する
ことを特徴とする請求項1に記載のユーザインタフェース装置。
The output means includes
When the instruction is not input to the first input unit and the instruction is input to the second input unit, the processing is performed by applying the setting item indicated by the setting information supplied by the display input unit. The user interface device according to claim 1, wherein an instruction to execute is output to the processing device.
JP2005271594A 2005-09-20 2005-09-20 User interface device Expired - Fee Related JP4826184B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005271594A JP4826184B2 (en) 2005-09-20 2005-09-20 User interface device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005271594A JP4826184B2 (en) 2005-09-20 2005-09-20 User interface device

Publications (2)

Publication Number Publication Date
JP2007086856A true JP2007086856A (en) 2007-04-05
JP4826184B2 JP4826184B2 (en) 2011-11-30

Family

ID=37973812

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005271594A Expired - Fee Related JP4826184B2 (en) 2005-09-20 2005-09-20 User interface device

Country Status (1)

Country Link
JP (1) JP4826184B2 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009129313A (en) * 2007-11-27 2009-06-11 Brother Ind Ltd Information processing program and information processing apparatus
GB2476030A (en) * 2009-11-30 2011-06-15 Peter John Charles Spurgeon Means to assist In the operation and orientation of an electrical device
WO2012064034A1 (en) * 2010-11-11 2012-05-18 주식회사 에이티랩 Touch screen device allowing a blind person to handle objects thereon, and method of handling objects on the touch screen device
JP2012178103A (en) * 2011-02-28 2012-09-13 Kyocera Document Solutions Inc Input device and image forming apparatus
JP2018092217A (en) * 2016-11-30 2018-06-14 京セラドキュメントソリューションズ株式会社 Electronic apparatus and operation display method of electronic apparatus
WO2018147143A1 (en) * 2017-02-09 2018-08-16 ソニー株式会社 Information processing device and information processing method
CN109308157A (en) * 2017-07-28 2019-02-05 富士施乐株式会社 Information processing unit
JP2019128846A (en) * 2018-01-25 2019-08-01 株式会社リコー Information processing apparatus, information processing method, and program
JP2019194798A (en) * 2018-05-02 2019-11-07 コニカミノルタ株式会社 Control system and control program
WO2024043502A1 (en) * 2022-08-25 2024-02-29 삼성전자주식회사 Electronic device and control method therefor
JP7497680B2 (ja) 2020-12-21 2024-06-11 コニカミノルタ株式会社 画像形成装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003076476A (en) * 2001-08-31 2003-03-14 Ricoh Co Ltd Operation panel and image formation device
JP2003131773A (en) * 2001-08-17 2003-05-09 Ricoh Co Ltd Equipment-operating device, program, data-storage medium and image-forming device
JP2004078961A (en) * 2002-08-14 2004-03-11 Hewlett-Packard Development Co Lp Method for facilitating interface between electric apparatus and user, and user interface for electric apparatus
JP2004139524A (en) * 2002-10-21 2004-05-13 Canon Inc Information processing device and method
JP2004271748A (en) * 2003-03-06 2004-09-30 Nec Corp Touch panel system
JP2005234818A (en) * 2004-02-18 2005-09-02 Ricoh Co Ltd Electronic equipment, program, and recording medium

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003131773A (en) * 2001-08-17 2003-05-09 Ricoh Co Ltd Equipment-operating device, program, data-storage medium and image-forming device
JP2003076476A (en) * 2001-08-31 2003-03-14 Ricoh Co Ltd Operation panel and image formation device
JP2004078961A (en) * 2002-08-14 2004-03-11 Hewlett-Packard Development Co Lp Method for facilitating interface between electric apparatus and user, and user interface for electric apparatus
JP2004139524A (en) * 2002-10-21 2004-05-13 Canon Inc Information processing device and method
JP2004271748A (en) * 2003-03-06 2004-09-30 Nec Corp Touch panel system
JP2005234818A (en) * 2004-02-18 2005-09-02 Ricoh Co Ltd Electronic equipment, program, and recording medium

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009129313A (en) * 2007-11-27 2009-06-11 Brother Ind Ltd Information processing program and information processing apparatus
GB2476030A (en) * 2009-11-30 2011-06-15 Peter John Charles Spurgeon Means to assist In the operation and orientation of an electrical device
WO2012064034A1 (en) * 2010-11-11 2012-05-18 주식회사 에이티랩 Touch screen device allowing a blind person to handle objects thereon, and method of handling objects on the touch screen device
JP2012178103A (en) * 2011-02-28 2012-09-13 Kyocera Document Solutions Inc Input device and image forming apparatus
JP2018092217A (en) * 2016-11-30 2018-06-14 京セラドキュメントソリューションズ株式会社 Electronic apparatus and operation display method of electronic apparatus
CN110249297A (en) * 2017-02-09 2019-09-17 索尼公司 Information processing equipment and information processing method
WO2018147143A1 (en) * 2017-02-09 2018-08-16 ソニー株式会社 Information processing device and information processing method
JPWO2018147143A1 (en) * 2017-02-09 2019-11-21 ソニー株式会社 Information processing apparatus and information processing method
US10809870B2 (en) 2017-02-09 2020-10-20 Sony Corporation Information processing apparatus and information processing method
JP7231412B2 (en) 2017-02-09 2023-03-01 ソニーグループ株式会社 Information processing device and information processing method
CN110249297B (en) * 2017-02-09 2023-07-21 索尼公司 Information processing apparatus and information processing method
CN109308157A (en) * 2017-07-28 2019-02-05 富士施乐株式会社 Information processing unit
CN109308157B (en) * 2017-07-28 2024-01-05 富士胶片商业创新有限公司 Information processing apparatus
JP2019128846A (en) * 2018-01-25 2019-08-01 株式会社リコー Information processing apparatus, information processing method, and program
JP7047401B2 (en) 2018-01-25 2022-04-05 株式会社リコー Information processing equipment, information processing methods and programs
JP2019194798A (en) * 2018-05-02 2019-11-07 コニカミノルタ株式会社 Control system and control program
JP7497680B2 (ja) 2020-12-21 2024-06-11 コニカミノルタ株式会社 画像形成装置
WO2024043502A1 (en) * 2022-08-25 2024-02-29 삼성전자주식회사 Electronic device and control method therefor

Also Published As

Publication number Publication date
JP4826184B2 (en) 2011-11-30

Similar Documents

Publication Publication Date Title
JP4826184B2 (en) User interface device
US20030036909A1 (en) Methods and devices for operating the multi-function peripherals
JP4694758B2 (en) Apparatus operating device, program, recording medium, and image forming apparatus
JP4615786B2 (en) Image forming apparatus, program, and recording medium
JP2005045370A (en) Image forming apparatus
JP2004062867A (en) Function controller and its method
JP5451290B2 (en) Information processing apparatus, information processing apparatus control method, and program
JP4010864B2 (en) Image forming apparatus, program, and recording medium
JP2014115787A (en) Input apparatus, input method, and computer program
JP2010191973A (en) Information input device and control method thereof
JP2012235320A (en) Image formation device, setting method, and setting program
JP5547134B2 (en) Image forming system and setting condition input method for image forming system
JP6330762B2 (en) Image forming apparatus
JP5269181B2 (en) Information input device and control method thereof
US8677267B2 (en) Method and system for displaying annotated information associated with a settable variable value feature
JP5269182B2 (en) Information input device and control method thereof
JP2006333365A (en) Information processing apparatus and program
JP2006031273A (en) Information input device and control method thereof
JP4261869B2 (en) Information processing apparatus, function setting method in information processing apparatus, and program
JP4562547B2 (en) Image forming apparatus, program, and recording medium
EP3125517B1 (en) Display device and image processing device
JP2004206179A (en) Equipment operation device, program and recording medium
JP2008117193A (en) Touch panel device and image processing unit having the same
WO2024024643A1 (en) Image formation device
JP2006155360A (en) Voice guidance device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080821

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100615

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100622

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100819

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110727

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110816

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110829

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140922

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees