JP2021086410A - Device, display control method, and program - Google Patents

Device, display control method, and program Download PDF

Info

Publication number
JP2021086410A
JP2021086410A JP2019215155A JP2019215155A JP2021086410A JP 2021086410 A JP2021086410 A JP 2021086410A JP 2019215155 A JP2019215155 A JP 2019215155A JP 2019215155 A JP2019215155 A JP 2019215155A JP 2021086410 A JP2021086410 A JP 2021086410A
Authority
JP
Japan
Prior art keywords
user
unit
screen
image processing
assist
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019215155A
Other languages
Japanese (ja)
Other versions
JP7459488B2 (en
Inventor
齊藤 敦
Atsushi Saito
敦 齊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2019215155A priority Critical patent/JP7459488B2/en
Publication of JP2021086410A publication Critical patent/JP2021086410A/en
Application granted granted Critical
Publication of JP7459488B2 publication Critical patent/JP7459488B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide an operation assistance function in accordance with operation status of a user.SOLUTION: An image processing apparatus 10 includes: a user operation detection unit 35 (one example of user operation detection means) which detects user operation received with respect to an operation panel 305; a device information acquisition unit 36 (one example of device information acquisition means) which acquires device information including sensor signals output from a peripheral device (one example of a sensor) arranged in a specific position of the image processing apparatus 10; and a display control unit 33 (one example of display control means) which causes the operation panel 305 to display an operation screen (e.g., operation assistance screen 700) in which processing to be executed by the image processing apparatus 10 can be selected, on the basis of history information indicating a history of detected user operations and the acquired device information.SELECTED DRAWING: Figure 11

Description

本発明は、機器、表示制御方法およびプログラムに関する。 The present invention relates to devices, display control methods and programs.

MFP(Multifunction Peripheral/Printer/Product:複合機)等の画像処理機能を備えた機器には、処理機能や設定メニューをユーザに選択操作させるために、タッチパネル機能を有する操作パネルが装着されている。 Devices equipped with image processing functions such as MFPs (Multifunction Peripheral / Printer / Product) are equipped with an operation panel having a touch panel function in order to allow the user to select and operate processing functions and setting menus.

また、ユーザ操作の手間を低減させるために、操作パネルに表示させる操作画面の表示形態を変更することで、ユーザに対する操作アシストを行う技術も知られている。例えば、特許文献1には、始動条件の成立が検知された特定の処理を実行させるための操作画像を、その他の処理を実行させるための操作画像とは異ならせて表示させる内容が開示されている。 Further, there is also known a technique of assisting a user in operation by changing the display form of an operation screen displayed on the operation panel in order to reduce the time and effort of user operation. For example, Patent Document 1 discloses a content in which an operation image for executing a specific process in which the establishment of a start condition is detected is displayed differently from an operation image for executing other processes. There is.

しかしながら、従来の方法では、ユーザのリアルタイムな操作状況に応じた操作アシストができていないという課題があった。 However, the conventional method has a problem that the operation assist according to the real-time operation situation of the user cannot be performed.

上述した課題を解決すべく、請求項1に係る発明は、所定の入力操作を受け付ける操作手段を備えた機器であって、前記操作手段に対して受け付けられたユーザ操作を検知するユーザ操作検知手段と、前記機器の特定の位置に配置されたセンサから出力されたセンサ信号を含む機器情報を取得する機器情報取得手段と、検知された前記ユーザ操作の履歴を示す履歴情報および取得された前記機器情報に基づいて、当該機器に実行させる処理を選択可能な操作画面を前記操作手段に表示させる表示制御手段と、を備える機器である。 In order to solve the above-mentioned problems, the invention according to claim 1 is a device provided with an operation means for accepting a predetermined input operation, and the user operation detection means for detecting the user operation accepted for the operation means. A device information acquisition means for acquiring device information including a sensor signal output from a sensor arranged at a specific position of the device, history information indicating the detected history of the user operation, and the acquired device. It is a device including a display control means for causing the operation means to display an operation screen on which a process to be executed by the device can be selected based on information.

本発明によれば、ユーザの操作状況に応じた操作アシスト機能を提供することができるという効果を奏する。 According to the present invention, it is possible to provide an operation assist function according to a user's operation status.

実施形態に係る画像処理装置の一例の概略を説明するための図である。It is a figure for demonstrating the outline of an example of the image processing apparatus which concerns on embodiment. 実施形態に係る画像処理装置のハードウエア構成の一例を示す図である。It is a figure which shows an example of the hardware composition of the image processing apparatus which concerns on embodiment. 実施形態に係る画像処理装置のソフトウエア構成の一例を示す図である。It is a figure which shows an example of the software structure of the image processing apparatus which concerns on embodiment. 実施形態に係る画像処理装置の機能構成の一例を示す図である。It is a figure which shows an example of the functional structure of the image processing apparatus which concerns on embodiment. (A)は、実施形態に係る操作履歴管理テーブルの一例を示す概念図であり、(B)は、実施形態に係る操作アシスト管理テーブルの一例を示す概念図である。(A) is a conceptual diagram showing an example of an operation history management table according to an embodiment, and (B) is a conceptual diagram showing an example of an operation assist management table according to an embodiment. 実施形態に係る権限情報管理テーブルの一例を示す概念図である。It is a conceptual diagram which shows an example of the authority information management table which concerns on embodiment. 実施形態に係る画像処理装置における操作アシスト処理の一例を示すフローチャートである。It is a flowchart which shows an example of the operation assist processing in the image processing apparatus which concerns on embodiment. 実施形態に係る画像処理装置に表示される選択画面の一例を示す図である。It is a figure which shows an example of the selection screen displayed on the image processing apparatus which concerns on embodiment. 実施形態に係る画像処理装置に表示される表示画面の画面遷移の一例を説明するための図である。It is a figure for demonstrating an example of the screen transition of the display screen displayed on the image processing apparatus which concerns on embodiment. 実施形態に係る画像処理装置におけるユーザ使用機能推測処理の一例を示すフローチャートである。It is a flowchart which shows an example of the user use function guessing process in the image processing apparatus which concerns on embodiment. (A)は、実施形態に係る画像処理装置に表示される操作アシスト画面の一例を示す図であり、(B)は、実施形態に係る画像処理装置に表示されるレコメンド画面の一例を示す図である。(A) is a diagram showing an example of an operation assist screen displayed on the image processing device according to the embodiment, and (B) is a diagram showing an example of a recommendation screen displayed on the image processing device according to the embodiment. Is. 実施形態の変形例1に係る画像処理装置における操作アシスト処理の一例を示すフローチャートである。It is a flowchart which shows an example of the operation assist processing in the image processing apparatus which concerns on modification 1 of embodiment. 実施形態の変形例2に係る画像処理装置におけるユーザ使用機能推測処理の一例を示すフローチャートである。It is a flowchart which shows an example of the user use function guessing process in the image processing apparatus which concerns on modification 2 of embodiment. 実施形態の変形例3に係る画像処理装置における操作アシスト処理の一例を示すフローチャートである。It is a flowchart which shows an example of the operation assist processing in the image processing apparatus which concerns on modification 3 of embodiment. 実施形態の変形例4に係る画像処理装置におけるユーザ使用機能推測処理の一例を示すフローチャートである。It is a flowchart which shows an example of the user use function guessing process in the image processing apparatus which concerns on modification 4 of embodiment.

以下、図面を参照しながら、発明を実施するための形態を説明する。なお、図面の説明において同一要素には同一符号を付し、重複する説明は省略する。 Hereinafter, modes for carrying out the invention will be described with reference to the drawings. In the description of the drawings, the same elements are designated by the same reference numerals, and duplicate description will be omitted.

●実施形態●
●画像処理装置の概略
図1は、実施形態に係る画像処理装置の一例の概略を説明するための図である。図1に示されている画像処理装置10は、操作パネル305に対するユーザ操作の手間を低減させるために、ユーザ操作をアシストする操作画面を提供する。
● Embodiment ●
● Outline of Image Processing Device FIG. 1 is a diagram for explaining an outline of an example of an image processing device according to an embodiment. The image processing device 10 shown in FIG. 1 provides an operation screen for assisting the user operation in order to reduce the time and effort required for the user operation on the operation panel 305.

画像処理装置10は、例えば、MFP(Multifunction Peripheral/Printer/Product:複合機)、ファクシミリ、スキャナ、またはプリンタ等の画像処理機能並びに通信機能を備える画像形成装置である。画像処理装置10は、ケーブルによりデータ通信可能に接続された操作部30と本体部50とを備える。画像処理装置10は、機器の一例である。 The image processing device 10 is, for example, an image forming device having an image processing function such as an MFP (Multifunction Peripheral / Printer / Product), a facsimile, a scanner, or a printer, and a communication function. The image processing device 10 includes an operation unit 30 and a main body unit 50 that are connected by a cable so as to be capable of data communication. The image processing device 10 is an example of the device.

操作部30は、画面表示およびユーザによるユーザ操作を受け付ける。本体部50は、操作部30によって受け付けられた入力に応じた動作を行う。なお、操作部30と本体部50は、ケーブルによる有線接続に代えて、無線(赤外線を含む)接続としてもよい。 The operation unit 30 receives a screen display and a user operation by the user. The main body unit 50 performs an operation according to the input received by the operation unit 30. The operation unit 30 and the main body 50 may be connected wirelessly (including infrared rays) instead of the wired connection using a cable.

画像処理装置10は、操作部30を本体部50から独立させ、本体部50の負荷が高くても操作レスポンスを低下させないようにすることが考えられる。例えば、操作部30は、本体部50と独立したOS(Operating System)が搭載され、本体部50と独立に動作する。 It is conceivable that the image processing device 10 makes the operation unit 30 independent of the main body 50 so that the operation response is not lowered even if the load of the main body 50 is high. For example, the operation unit 30 is equipped with an OS (Operating System) independent of the main body 50 and operates independently of the main body 50.

また、本体部50には、画像処理の対象となる原稿の自動的な給紙を行うADF(Auto Document Feeder)531、画像処理装置10の周囲にいるユーザを検知する人感センサ533、および画像処理で使用する用紙を補給する給紙トレイ535を有している。 Further, the main body 50 includes an ADF (Auto Document Feeder) 531 that automatically feeds a document to be image-processed, a motion sensor 533 that detects a user around the image processing device 10, and an image. It has a paper feed tray 535 for replenishing the paper used in the processing.

ADF531、人感センサ533および給紙トレイ535は、本体部50における特定の位置に配置されている周辺機器である。このような周辺機器には、本体部50の処理または状態を検知するためのセンサが備えられている。周辺機器は、センサ信号を含む機器情報を出力する。ADF531は、例えば、設置された原稿の有無、用紙サイズ、ADF531の開閉等を機器情報として出力する。また、人感センサ533は、例えば、検知結果である人(ユーザ)の有無を機器情報として出力する。さらに、給紙トレイ535は、例えば、用紙サイズ、用紙の残量、用紙の有無、または給紙トレイ535の開閉情報等を機器情報として出力する。 The ADF531, the motion sensor 533, and the paper feed tray 535 are peripheral devices arranged at specific positions on the main body 50. Such a peripheral device is provided with a sensor for detecting the processing or the state of the main body 50. Peripheral devices output device information including sensor signals. The ADF531 outputs, for example, the presence / absence of an installed document, the paper size, the opening / closing of the ADF531, and the like as device information. Further, the motion sensor 533 outputs, for example, the presence / absence of a person (user) as a detection result as device information. Further, the paper feed tray 535 outputs, for example, the paper size, the remaining amount of paper, the presence / absence of paper, the opening / closing information of the paper feed tray 535, and the like as device information.

なお、図1に示されている画像処理装置10の周辺機器はこれに限られず、その他用途に応じた周辺機器(センサ)が具備されていてもよい。画像処理装置10は、これらの周辺機器から、例えば、トナー残量やLANケーブルの挿抜等のセンサ信号を含む機器情報を出力することができる。また、画像処理装置10は、管理者またはユーザによって特定の場所に設置された装置だけでなく、持ち運び可能なハンディプリンタまたはハンディスキャナ等であってもよい。 The peripheral device of the image processing device 10 shown in FIG. 1 is not limited to this, and other peripheral devices (sensors) according to the application may be provided. The image processing device 10 can output device information including sensor signals such as the remaining amount of toner and the insertion / removal of a LAN cable from these peripheral devices. Further, the image processing device 10 may be a portable handy printer, a handy scanner, or the like, as well as a device installed at a specific place by an administrator or a user.

●ハードウエア構成
図2は、第1の実施形態に係る画像処理装置のハードウエア構成の一例を示す図である。なお、図2に示されているハードウエア構成は、必要に応じて構成要素が追加または削除されてもよい。画像処理装置10は、プリンタ機能、コピー機能、スキャナ機能およびファックス機能等の各種の機能を実現可能な本体部50と、ユーザ操作に応じた入力を受け付ける操作部30とを備えている。操作部30は、本体部50の制御部、および、本体部50とは独立した制御部を備えた本体部50の操作部30(操作パネル)である。
● Hardware Configuration FIG. 2 is a diagram showing an example of the hardware configuration of the image processing apparatus according to the first embodiment. In the hardware configuration shown in FIG. 2, components may be added or deleted as needed. The image processing device 10 includes a main body unit 50 capable of realizing various functions such as a printer function, a copy function, a scanner function, and a fax function, and an operation unit 30 that receives an input according to a user operation. The operation unit 30 is an operation unit 30 (operation panel) of the main body unit 50 having a control unit of the main body unit 50 and a control unit independent of the main body unit 50.

なお、ユーザの操作を受け付けるとは、ユーザの操作に応じて入力される情報(画面の座標値を示す信号等を含む)を受け付けることを含む概念である。本体部50と操作部30は、専用の通信路200を介して相互に通信可能に接続されている。通信路200は、例えば、USB(Universal Serial Bus)規格を用いることができるが、有線または無線を問わず任意の規格であってもよい。本体部50は、操作部30によって受け付けられた入力に応じた動作を行う。また、本体部50は、例えば、通信ネットワークを介して、外部装置と通信可能であり、外部装置から受信される指示に応じた動作を行うこともできる。 It should be noted that accepting a user's operation is a concept including accepting information (including a signal indicating a coordinate value of a screen) input according to the user's operation. The main body unit 50 and the operation unit 30 are connected to each other so as to be able to communicate with each other via a dedicated communication path 200. For the communication path 200, for example, a USB (Universal Serial Bus) standard can be used, but any standard may be used regardless of whether it is wired or wireless. The main body unit 50 performs an operation according to the input received by the operation unit 30. Further, the main body 50 can communicate with an external device via, for example, a communication network, and can perform an operation according to an instruction received from the external device.

まず、本体部50のハードウエア構成について説明する。図3に示されているように、本体部50は、CPU(Central Processing Unit)501、ROM(Read Only Memory)502、RAM(Random Access Memory)503と、HDD(Hard Disk Drive)504、スキャナエンジン505、プリンタエンジン506、FAX制御ユニット507、通信I/F(Interface)508および接続I/F509を備えている。 First, the hardware configuration of the main body 50 will be described. As shown in FIG. 3, the main body 50 includes a CPU (Central Processing Unit) 501, a ROM (Read Only Memory) 502, a RAM (Random Access Memory) 503, an HDD (Hard Disk Drive) 504, and a scanner engine. It includes a 505, a printer engine 506, a FAX control unit 507, a communication I / F (Interface) 508, and a connection I / F 509.

CPU501は、本体部50全体の動作を制御する。ROM502は、CPU501の駆動に用いられるプログラムを記憶する不揮発性のメモリである。RAM503は、CPU501のワークエリアとして使用される揮発性のメモリである。HDD504は、各種データまたはプログラムを記憶する不揮発性の記憶媒体である。CPU501は、RAM503をワークエリア(作業領域)として、ROM502またはHDD504等に格納されたプログラムを実行することで、本体部50全体の動作を制御する。また、CPU501は、スキャナエンジン505、プリンタエンジン506またはFAX制御ユニット507によって、上述したプリンタ機能、コピー機能、スキャナ機能、ファックス機能等の各種機能を実現させる。 The CPU 501 controls the operation of the entire main body 50. The ROM 502 is a non-volatile memory that stores a program used to drive the CPU 501. The RAM 503 is a volatile memory used as a work area of the CPU 501. HDD 504 is a non-volatile storage medium for storing various data or programs. The CPU 501 controls the operation of the entire main body 50 by executing a program stored in the ROM 502, the HDD 504, or the like with the RAM 503 as a work area (work area). Further, the CPU 501 realizes various functions such as the above-mentioned printer function, copy function, scanner function, and fax function by the scanner engine 505, the printer engine 506, or the FAX control unit 507.

通信I/F508は、通信ネットワークを介して、外部装置と通信するためのインターフェースである。接続I/F509は、通信路200を介して、操作部30と通信するためのインターフェースである。機器I/F511は、図1に示されているADF531、人感センサ533および給紙トレイ535等の周辺機器と接続するためのインターフェースである。また、本体部50は、バスライン510を備えている。バスライン510は、CPU501等の各構成要素を電気的に接続するためのアドレスバスまたはデータバス等である。 The communication I / F 508 is an interface for communicating with an external device via a communication network. The connection I / F 509 is an interface for communicating with the operation unit 30 via the communication path 200. The device I / F 511 is an interface for connecting to peripheral devices such as the ADF531, the motion sensor 533, and the paper feed tray 535 shown in FIG. Further, the main body 50 is provided with a bus line 510. The bus line 510 is an address bus, a data bus, or the like for electrically connecting each component such as the CPU 501.

続いて、操作部30のハードウエア構成について説明する。図3に示されているように、操作部30は、CPU301、ROM302、RAM303、フラッシュメモリ304、操作パネル305、通信I/F306および接続I/F307を備えている。 Subsequently, the hardware configuration of the operation unit 30 will be described. As shown in FIG. 3, the operation unit 30 includes a CPU 301, a ROM 302, a RAM 303, a flash memory 304, an operation panel 305, a communication I / F 306, and a connection I / F 307.

CPU301は、操作部30全体の動作を制御する。ROM302は、CPU301の駆動に用いられるプログラムを記憶する不揮発性のメモリである。RAM303は、CPU301のワークエリアとして使用される揮発性のメモリである。CPU301は、RAM303をワークエリア(作業領域)として、ROM302またはフラッシュメモリ304等に格納されたプログラムを実行することで、操作部30全体の動作を制御する。また、CPU301は、ユーザ操作により受け付けられた入力に応じた情報(画像)を表示する等、各種機能を実現する。 The CPU 301 controls the operation of the entire operation unit 30. The ROM 302 is a non-volatile memory that stores a program used to drive the CPU 301. The RAM 303 is a volatile memory used as a work area of the CPU 301. The CPU 301 controls the operation of the entire operation unit 30 by executing a program stored in the ROM 302, the flash memory 304, or the like, using the RAM 303 as a work area (work area). Further, the CPU 301 realizes various functions such as displaying information (image) according to the input received by the user operation.

操作パネル305は、ユーザ操作に応じた各種の入力を受け付けるとともに、各種の情報を表示する。例えば、各種の情報は、受け付けられた入力に応じた情報、画像処理装置10の動作状況を示す情報、設定状態を示す情報等が挙げられる。操作パネル305は、例えば、タッチパネル機能を搭載した液晶表示装置(LCD:Liquid Crystal Display)、またはタッチパネル機能が搭載された有機EL(Electro Luminescence)表示装置等により構成される。また、操作パネル305は、これに加えてまたはこれに代えて、ハードウエアキー等の入力部やランプ等の表示部を設けることもできる。操作パネル305は、操作手段の一例である。通信I/F306は、通信ネットワークを介して外部装置等と通信するためのインターフェースである。接続I/F307は、通信路200を介して本体部50と通信するためのインターフェースである。また、操作部30は、バスライン308を備えている。バスライン308は、CPU301等の各構成要素を電気的に接続するためのアドレスバスまたはデータバス等である。 The operation panel 305 accepts various inputs according to user operations and displays various information. For example, various types of information include information according to the received input, information indicating the operating status of the image processing device 10, information indicating the setting state, and the like. The operation panel 305 is composed of, for example, a liquid crystal display (LCD) equipped with a touch panel function, an organic EL (Electro Luminescence) display device equipped with a touch panel function, or the like. Further, the operation panel 305 may be provided with an input unit such as a hardware key or a display unit such as a lamp in addition to or in place of the operation panel 305. The operation panel 305 is an example of an operation means. The communication I / F 306 is an interface for communicating with an external device or the like via a communication network. The connection I / F 307 is an interface for communicating with the main body 50 via the communication path 200. Further, the operation unit 30 includes a bus line 308. The bus line 308 is an address bus, a data bus, or the like for electrically connecting each component such as the CPU 301.

なお、上記各プログラムは、インストール可能な形式または実行可能な形式のファイルで、コンピュータで読み取り可能な記録媒体に記録して流通させるようにしてもよい。記録媒体の例として、CD−R(Compact Disc Recordable)、DVD(Digital Versatile Disk)、Blu-ray(登録商標)ディスク、SDカード、USBメモリ等が挙げられる。また、記録媒体は、プログラム製品(Program Product)として、国内または国外へ提供されることができる。例えば、画像処理装置10は、本発明に係るプログラムが実行されることで本発明に係る表示制御方法を実現する。 Each of the above programs may be a file in an installable format or an executable format, and may be recorded and distributed on a computer-readable recording medium. Examples of recording media include CD-R (Compact Disc Recordable), DVD (Digital Versatile Disk), Blu-ray (registered trademark) disc, SD card, USB memory and the like. In addition, the recording medium can be provided domestically or internationally as a program product. For example, the image processing device 10 realizes the display control method according to the present invention by executing the program according to the present invention.

●ソフトウエア構成
次に、図3を用いて、画像処理装置10のソフトウエア構成の概要について説明する。図3は、実施形態に係る画像処理装置のソフトウエア構成の一例を示す図である。図3に示すように、本体部50は、アプリ層551、サービス層552、およびOS(Operating System)層553を有している。アプリ層551、サービス層552およびOS層553は、ROM502またはHDD504等に格納されている各種ソフトウエアである。本体部50は、CPU501によって、これらのソフトウエアを実行することにより、各種機能を提供する。
● Software configuration Next, the outline of the software configuration of the image processing apparatus 10 will be described with reference to FIG. FIG. 3 is a diagram showing an example of the software configuration of the image processing device according to the embodiment. As shown in FIG. 3, the main body 50 has an application layer 551, a service layer 552, and an OS (Operating System) layer 553. The application layer 551, the service layer 552, and the OS layer 553 are various software stored in the ROM 502, HDD 504, or the like. The main body 50 provides various functions by executing these softwares by the CPU 501.

アプリ層551のソフトウエアは、ハードウエア資源を動作させて所定の機能を提供す
るためのアプリケーションソフトウエア(以下、「アプリ」称する)である。例えば、アプリは、コピー機能を提供するためのコピーアプリ、スキャナ機能を提供するためのスキャナアプリ、ファクス機能を提供するためのファクスアプリ、プリンタ機能を提供するためのプリンタアプリ等である。
The software of the application layer 551 is application software (hereinafter, referred to as "application") for operating hardware resources to provide a predetermined function. For example, the application is a copy application for providing a copy function, a scanner application for providing a scanner function, a fax application for providing a fax function, a printer application for providing a printer function, and the like.

サービス層552のソフトウエアは、アプリ層551とOS層553との間に介在する。サービス層552のソフトウエアは、本体部50が備えるハードウエア資源を利用するためのインターフェースを、アプリに提供するためのソフトウエアである。具体的には、サービス層552のソフトウエアは、ハードウエア資源に対する動作要求の受け付け、および動作要求の調停を行う機能を提供するためのソフトウエアである。サービス層552によって受け付けられる動作要求は、例えば、スキャナエンジン505による読み取りまたはプリンタエンジン506による印刷等の要求である。 The software of the service layer 552 intervenes between the application layer 551 and the OS layer 553. The software of the service layer 552 is software for providing the application with an interface for using the hardware resources included in the main body 50. Specifically, the software of the service layer 552 is software for providing a function of accepting an operation request for a hardware resource and arbitrating the operation request. The operation request received by the service layer 552 is, for example, a request for reading by the scanner engine 505 or printing by the printer engine 506.

サービス層552によるインターフェースの機能は、本体部50のアプリ層551だけではなく、操作部30のアプリ層351にも提供される。すなわち、操作部30のアプリ層351は、サービス層552のインターフェース機能を介して、本体部50のハードウエア資源(例えば、スキャナエンジン505、プリンタエンジン506、FAX制御ユニット507等)を利用した機能を実現することができる。 The function of the interface by the service layer 552 is provided not only to the application layer 551 of the main body 50 but also to the application layer 351 of the operation unit 30. That is, the application layer 351 of the operation unit 30 has a function of utilizing the hardware resources of the main unit 50 (for example, the scanner engine 505, the printer engine 506, the FAX control unit 507, etc.) through the interface function of the service layer 552. It can be realized.

OS層553のソフトウエアは、本体部50が備えるハードウエアを制御する基本機能を提供するための基本ソフトウエア(オペレーティングシステム)である。サービス層552のソフトウエアは、各種アプリからのハードウエア資源の利用要求を、OS層553が解釈可能なコマンドに変換してOS層553に渡す。そして、OS層553のソフトウエアによりコマンドが実行されることで、ハードウエア資源は、アプリの要求に従った動作を行う。 The software of the OS layer 553 is basic software (operating system) for providing basic functions for controlling the hardware included in the main body 50. The software of the service layer 552 converts the usage request of the hardware resource from various applications into a command that can be interpreted by the OS layer 553 and passes it to the OS layer 553. Then, when the command is executed by the software of the OS layer 553, the hardware resource operates according to the request of the application.

操作部30は、アプリ層351、サービス層352およびOS層353を有する。操作部30が備えるアプリ層351、サービス層352およびOS層353の階層構造は、本体部50と同様である。ただし、アプリ層351のアプリにより提供される機能や、サービス層352が受け付け可能な動作要求の種類は、本体部50とは異なる。アプリ層351のアプリは、操作部30が備えるハードウエア資源を動作させて所定の機能を提供するためのソフトウエアである。アプリ層351のアプリは、本体部50が備える機能(プリンタ機能、コピー機能、スキャナ機能、ファックス機能)に関する操作や表示を行
なうためのUI(User Interface)の機能を提供するためのソフトウエア等が含まれる。
The operation unit 30 has an application layer 351 and a service layer 352 and an OS layer 353. The hierarchical structure of the application layer 351 and the service layer 352 and the OS layer 353 included in the operation unit 30 is the same as that of the main body unit 50. However, the functions provided by the application of the application layer 351 and the types of operation requests that the service layer 352 can accept are different from those of the main body 50. The application of the application layer 351 is software for operating the hardware resource included in the operation unit 30 to provide a predetermined function. The application layer 351 includes software for providing UI (User Interface) functions for performing operations and displays related to the functions (printer function, copy function, scanner function, fax function) provided in the main body 50. included.

画像処理装置10において、機能の独立性を保つため、本体部50のOS層553のソフトウエアと操作部30のOS層353のソフトウエアは、互いに異なる。つまり、本体部50と操作部30は、異なるオペレーティングシステムで互いに独立して動作する。例えば、本体部50のOS層553のソフトウエアは、LINUX(登録商標)を採用し、操作部30のOS層353のソフトウエアは、Android(登録商標)を採用してもよい。 In the image processing device 10, the software of the OS layer 553 of the main body 50 and the software of the OS layer 353 of the operation unit 30 are different from each other in order to maintain the independence of the functions. That is, the main body 50 and the operation 30 operate independently of each other in different operating systems. For example, the software of the OS layer 553 of the main body 50 may adopt LINUX (registered trademark), and the software of the OS layer 353 of the operation unit 30 may adopt Android (registered trademark).

上述したように、図3に示されている画像処理装置10において、本体部50と操作部30は、異なるオペレーティングシステムで動作するため、本体部50と操作部30との間の通信は、共通の装置内のプロセス間通信ではなく、異なる装置間の通信として行われる。例えば、操作部30によって受け付けられた入力(ユーザ操作による指示内容)を本体部50に伝達する動作(コマンド通信)、および本体部50が操作部30にイベントを通知する動作等は、異なる装置間の通信として行われる。これにより、操作部30は、本体部50にコマンド通信を行うことにより、本体部50の機能を利用することができる。なお、本体部50から操作部30に通知されるイベントは、本体部50における動作の実行状況、および本体部50側で設定された内容等が挙げられる。 As described above, in the image processing device 10 shown in FIG. 3, since the main body 50 and the operation unit 30 operate on different operating systems, the communication between the main body 50 and the operation unit 30 is common. It is performed as communication between different devices, not as interprocess communication within the device. For example, the operation of transmitting the input received by the operation unit 30 (instruction content by user operation) to the main unit 50 (command communication), the operation of the main unit 50 notifying the operation unit 30 of an event, and the like are performed between different devices. It is done as a communication of. As a result, the operation unit 30 can use the function of the main body unit 50 by performing command communication with the main body unit 50. The events notified from the main body 50 to the operation unit 30 include the execution status of the operation in the main body 50, the contents set on the main body 50 side, and the like.

また、図3に示されている画像処理装置10において、操作部30への電力供給は、通信路200を経由し、本体部50から行われる。このため、操作部30の電源制御は、本体部50の電源制御とは別に(独立して)行うことができる。 Further, in the image processing device 10 shown in FIG. 3, the power supply to the operation unit 30 is performed from the main body unit 50 via the communication path 200. Therefore, the power supply control of the operation unit 30 can be performed separately (independently) from the power supply control of the main body unit 50.

●機能構成
次に、図4乃至図7を用いて、実施形態に係る画像処理装置の機能構成について説明する。図4は、実施形態に係る画像処理装置の機能構成の一例を示す図である。なお、図4には、画像処理装置10において、後述の処理または動作に関連する機能構成が示されている。
● Functional configuration Next, the functional configuration of the image processing apparatus according to the embodiment will be described with reference to FIGS. 4 to 7. FIG. 4 is a diagram showing an example of the functional configuration of the image processing device according to the embodiment. Note that FIG. 4 shows a functional configuration related to the processing or operation described later in the image processing apparatus 10.

画像処理装置10は、上述のように、操作部30および本体部50によって構成される。このうち、操作部30は、入出力部31、受付部32、表示制御部33、判断部34、ユーザ操作検知部35、機器情報取得部36、ユーザ使用機能推測部37、操作アシスト決定部38、通信部39、判定部41、認証部42および記憶・読出部49を有している。これら各部は、図2に示されている各構成要素のいずれかが、RAM303上に展開されたプログラムに従ったCPU301からの命令によって動作することで実現される機能、または機能する手段である。また、操作部30は、図2に示されているROM302またはフラッシュメモリ304によって構築される記憶部3000を有している。 As described above, the image processing device 10 is composed of an operation unit 30 and a main body unit 50. Of these, the operation unit 30 includes an input / output unit 31, a reception unit 32, a display control unit 33, a judgment unit 34, a user operation detection unit 35, a device information acquisition unit 36, a user use function estimation unit 37, and an operation assist determination unit 38. , Communication unit 39, determination unit 41, authentication unit 42, and storage / reading unit 49. Each of these parts is a function realized or a means for functioning by operating any of the components shown in FIG. 2 by an instruction from the CPU 301 according to a program developed on the RAM 303. Further, the operation unit 30 has a storage unit 3000 constructed by the ROM 302 or the flash memory 304 shown in FIG.

入出力部31は、図2に示されているCPU301からの命令、および接続I/F307によって実現され、本体部50との間で各種データまたは情報のやり取りを行う機能である。入出力部31は、例えば、本体部50に対して、ユーザの入力操作により受け付けられた要求に応じた所定の要求信号を送信する。 The input / output unit 31 is a function realized by a command from the CPU 301 shown in FIG. 2 and a connection I / F 307, and exchanges various data or information with the main body unit 50. The input / output unit 31 transmits, for example, a predetermined request signal corresponding to the request received by the user's input operation to the main body unit 50.

受付部32は、図2に示されているCPU301からの命令、および操作パネル305によって実現され、ユーザからの操作パネル305に対する各種入力を受け付ける機能である。表示制御部33は、図2に示されているCPU301からの命令、および操作パネル305によって実現され、ユーザによる入力操作を受け付ける操作画面等の各種画面を、操作パネル305に表示させる機能である。表示制御部33は、例えば、WEBブラウザを用いて、HTML(HyperText Markup Language)等により作成されたWebページを、操作パネル305に表示させる。判断部34は、図2に示されているCPU301からの命令によって実現され、操作部30における各種判断を行う機能である。 The reception unit 32 is a function realized by the instruction from the CPU 301 shown in FIG. 2 and the operation panel 305, and receives various inputs to the operation panel 305 from the user. The display control unit 33 is a function realized by the instruction from the CPU 301 shown in FIG. 2 and the operation panel 305, and causes the operation panel 305 to display various screens such as an operation screen that accepts an input operation by the user. The display control unit 33 uses, for example, a WEB browser to display a Web page created by HTML (HyperText Markup Language) or the like on the operation panel 305. The determination unit 34 is a function realized by an instruction from the CPU 301 shown in FIG. 2 and performing various determinations in the operation unit 30.

ユーザ操作検知部35は、図2に示されるCPU301からの命令によって実現され、受付部32によって受け付けられたユーザ入力に応じたユーザ操作を検知する機能である。ユーザ操作検知部35は、例えば、ユーザ操作として、操作間隔、操作回数またはユーザ操作に応じた画面遷移の情報を検知する。機器情報取得部36は、図2に示されているCPU301からの命令によって実現され、入出力部31を介して本体部50から入力された機器情報を取得する機能である。 The user operation detection unit 35 is a function realized by an instruction from the CPU 301 shown in FIG. 2 and detects a user operation in response to a user input received by the reception unit 32. The user operation detection unit 35 detects, for example, information on the operation interval, the number of operations, or the screen transition according to the user operation as the user operation. The device information acquisition unit 36 is a function realized by a command from the CPU 301 shown in FIG. 2 and acquires device information input from the main body 50 via the input / output unit 31.

ユーザ使用機能推測部37は、図2に示されているCPU301からの命令によって実現され、ユーザが使用したい画像処理装置10の機能を推測する機能である。ユーザ使用機能推測部37は、例えば、ユーザ操作検知部35による検知結果または機器情報取得部36によって取得された機器情報に応じてユーザ使用機能を推測する。 The user use function estimation unit 37 is a function realized by an instruction from the CPU 301 shown in FIG. 2 and estimates the function of the image processing device 10 that the user wants to use. The user use function estimation unit 37 estimates the user use function according to, for example, the detection result by the user operation detection unit 35 or the device information acquired by the device information acquisition unit 36.

操作アシスト決定部38は、図2に示されているCPU301からの命令によって実現され、ユーザに提供する操作アシストを決定する機能である。操作アシスト決定部38は、例えば、ユーザ使用機能推測部37による推測結果に応じて、操作アシストを行うための表示画面の表示形態を決定する。 The operation assist determination unit 38 is a function realized by the instruction from the CPU 301 shown in FIG. 2 and determines the operation assist to be provided to the user. The operation assist determination unit 38 determines the display form of the display screen for performing the operation assist, for example, according to the estimation result by the user use function estimation unit 37.

通信部39は、図2に示されているCPU301からの命令、および通信I/F306によって実現され、通信ネットワークを介して、外部装置との間で各種データまたは情報の通信を行う機能である。判定部41は、図2に示されているCPU301からの命令によって実現され、操作パネル305に対する操作を行うユーザの操作習熟度を判定する機能である。認証部42は、図2に示されているCPU301からの命令によって実現され、操作パネル305に対する操作を行うユーザの認証処理を行う機能である。 The communication unit 39 is a function realized by a command from the CPU 301 shown in FIG. 2 and a communication I / F 306, and is a function of communicating various data or information with an external device via a communication network. The determination unit 41 is a function realized by an instruction from the CPU 301 shown in FIG. 2 and determines the operation proficiency level of the user who operates the operation panel 305. The authentication unit 42 is a function realized by an instruction from the CPU 301 shown in FIG. 2 and performs an authentication process of a user who operates the operation panel 305.

記憶・読出部49は、図2に示されているCPU301からの命令によって実行され、記憶部3000に各種データを記憶させ、または記憶部3000から各種データを読み出す機能である。 The storage / reading unit 49 is a function executed by an instruction from the CPU 301 shown in FIG. 2 to store various data in the storage unit 3000 or read various data from the storage unit 3000.

○操作履歴管理テーブル
図5(A)は、実施形態に係る操作履歴管理テーブルの一例を示す概念図である。記憶部3000には、図5(A)に示されているような操作履歴管理テーブルによって構成されている操作履歴管理DB3001が構築されている。この操作履歴管理テーブルには、ユーザの操作の履歴を示す履歴情報として、ユーザ操作が受け付けられた日時とユーザ操作による発生した表示画面の画面遷移を示す画面遷移情報が関連づけられて記憶されている。また、操作履歴管理テーブルには、操作中のユーザの一連の操作履歴が蓄積されて記憶されている。例えば、図5(A)の例では、操作履歴管理テーブルには、ユーザ操作1およびユーザ操作2が履歴情報として記憶されている。
-Operation history management table FIG. 5 (A) is a conceptual diagram showing an example of the operation history management table according to the embodiment. In the storage unit 3000, an operation history management DB 3001 configured by an operation history management table as shown in FIG. 5A is constructed. In this operation history management table, as history information indicating the history of user operations, the date and time when the user operation is accepted and the screen transition information indicating the screen transition of the display screen generated by the user operation are stored in association with each other. .. In addition, a series of operation histories of the user during the operation are accumulated and stored in the operation history management table. For example, in the example of FIG. 5A, the user operation 1 and the user operation 2 are stored as history information in the operation history management table.

○操作アシスト管理テーブル
図5(B)は、実施形態に係る操作アシスト管理テーブルの一例を示す概念図である。記憶部3000には、図5(B)に示されているような操作アシスト管理テーブルによって構成されている操作アシスト管理DB3003が構築されている。この操作アシスト管理テーブルには、操作アシストを行う操作項目を示すアシスト項目に対して、このアシスト項目の操作アシストを行うための各種条件が関連づけられて記憶されている。操作アシストを行うための条件には、ユーザ操作の操作間隔の閾値T、ユーザ操作の操作回数の閾値C、表示画面における特定の画面遷移を示す情報、操作アシストに用いるセンサ信号を送信したセンサ(周辺機器)の配置位置、およびユーザの権限を示すユーザ権限の情報が含まれている。ユーザ使用機能推測部37は、ユーザ操作の操作履歴および周辺機器から取得される機器情報に基づいて、操作アシストを行うための条件を満たすアシスト項目が存在する場合、その項目をユーザ使用機能として推測する。
-Operation Assist Management Table FIG. 5B is a conceptual diagram showing an example of the operation assist management table according to the embodiment. The storage unit 3000 is constructed with an operation assist management DB 3003 configured by an operation assist management table as shown in FIG. 5 (B). In this operation assist management table, various conditions for performing the operation assist of the assist item are associated and stored with respect to the assist item indicating the operation item for which the operation assist is performed. The conditions for performing the operation assist include the threshold value T of the operation interval of the user operation, the threshold value C of the number of operations of the user operation, the information indicating a specific screen transition on the display screen, and the sensor that transmits the sensor signal used for the operation assist ( Peripheral device) location and user authority information indicating the user's authority are included. If there is an assist item that satisfies the condition for performing operation assist based on the operation history of the user operation and the device information acquired from the peripheral device, the user use function estimation unit 37 infers the item as the user use function. To do.

○権限情報管理テーブル
図6は、実施形態に係る権限情報管理テーブルの一例を示す概念図である。記憶部3000には、図6に示されているような権限情報管理テーブルによって構成されている権限情報管理DB3005が構築されている。この権限情報管理テーブルには、ユーザを識別するためのユーザIDに対して、各パスワードおよび画像処理装置10に対する操作権限を示す権限情報が関連づけられて管理されている。例えば、図6に示されている権限情報管理テーブルにおいて、ユーザID「tm01」のパスワードは「abab」であり、ユーザ権限は「一般」である。また、ユーザID「tm02」のパスワードは「aabb」であり、ユーザ権限は「管理者」である。画像処理装置10は、この権限情報管理テーブルに基づいて、ユーザごとに操作権限に応じて操作アシストの内容を異ならせることができる。
○ Authority information management table FIG. 6 is a conceptual diagram showing an example of the authority information management table according to the embodiment. In the storage unit 3000, an authority information management DB 3005 configured by an authority information management table as shown in FIG. 6 is constructed. In this authority information management table, each password and authority information indicating the operation authority for the image processing device 10 are associated with the user ID for identifying the user and managed. For example, in the authority information management table shown in FIG. 6, the password of the user ID "tm01" is "abab", and the user authority is "general". The password of the user ID "tm02" is "aabb", and the user authority is "administrator". Based on this authority information management table, the image processing device 10 can make the content of the operation assist different for each user according to the operation authority.

続いて、本体部50は、入出力部51、画像処理部52、機器情報取得部53、通信部54および記憶・読出部59を有している。これら各部は、図2に示されている各構成要素のいずれかが、RAM503上に展開されたプログラムに従ったCPU501からの命令によって動作することで実現される機能、または機能する手段である。また、本体部50は、図2に示されているROM502またはHDD504によって構築される記憶部5000を有している。 Subsequently, the main body unit 50 has an input / output unit 51, an image processing unit 52, a device information acquisition unit 53, a communication unit 54, and a storage / reading unit 59. Each of these parts is a function realized or a means for functioning by operating any of the components shown in FIG. 2 by an instruction from the CPU 501 according to a program developed on the RAM 503. Further, the main body unit 50 has a storage unit 5000 constructed by the ROM 502 or HDD 504 shown in FIG.

入出力部51は、図2に示されているCPU501からの命令、および接続I/F509によって実現され、操作部30との間で各種データまたは情報のやり取りを行う機能である。入出力部51は、例えば、操作部30から送信された所定の要求信号を受信する。また、入出力部51は、例えば、操作部30に対して、機器情報取得部53によって取得された機器情報を送信する。 The input / output unit 51 is a function realized by a command from the CPU 501 shown in FIG. 2 and a connection I / F 509, and exchanges various data or information with the operation unit 30. The input / output unit 51 receives, for example, a predetermined request signal transmitted from the operation unit 30. Further, the input / output unit 51 transmits the device information acquired by the device information acquisition unit 53 to the operation unit 30, for example.

画像処理部52は、図2に示されているCPU501からの命令、並びにスキャナエンジン505、プリンタエンジン506またはFAX制御ユニット507によって実現され、画像処理装置10よる各種画像処理を実行する機能である。機器情報取得部53は、図2に示されているCPU501からの命令、および機器I/F511によって実現され、画像処理装置10の特定の位置に配置されたセンサからのセンサ信号を含む機器情報を取得する機能である。 The image processing unit 52 is a function realized by the instruction from the CPU 501 shown in FIG. 2 and the scanner engine 505, the printer engine 506, or the FAX control unit 507, and executes various image processing by the image processing device 10. The device information acquisition unit 53 receives device information including a command from the CPU 501 shown in FIG. 2 and a sensor signal from a sensor arranged at a specific position of the image processing device 10 realized by the device I / F 511. It is a function to acquire.

通信部54は、図2に示されているCPU501からの命令、および通信I/F508によって実現され、通信ネットワークを介して、外部装置との間で各種データまたは情報の通信を行う機能である。記憶・読出部59は、図2に示されているCPU501からの命令によって実行され、記憶部5000に各種データを記憶させ、または記憶部5000から各種データを読み出す機能である。 The communication unit 54 is a function realized by a command from the CPU 501 shown in FIG. 2 and a communication I / F 508, and communicates various data or information with an external device via a communication network. The storage / reading unit 59 is a function executed by an instruction from the CPU 501 shown in FIG. 2 to store various data in the storage unit 5000 or read various data from the storage unit 5000.

●実施形態の処理または動作
次に、図7乃至図11を用いて、実施形態に係る画像処理装置の処理または動作について説明する。図7は、実施形態に係る画像処理装置における操作アシスト処理の一例を示すフローチャートである。
● Processing or operation of the embodiment Next, the processing or operation of the image processing apparatus according to the embodiment will be described with reference to FIGS. 7 to 11. FIG. 7 is a flowchart showing an example of operation assist processing in the image processing apparatus according to the embodiment.

まず、操作部30の表示制御部33は、図8に示されている選択画面600を操作パネル305に表示させる(ステップS31)。図8に示されている選択画面600は、ユーザが画像処理装置10を用いた各種処理を行う場合に押下される選択ボタンが含まれている。また、選択画面600には、メニュー表示の初期画面であるホーム画面への画面遷移を行う場合に押下される「ホーム」ボタン610、および一つ前のユーザ操作が行われた画面に戻す場合に押下される「戻る」ボタン630が含まれている。ユーザは、例えば、タッチパネル式の操作パネル305にタッチして、所望の処理に該当するボタンを選択することで、所望の操作を行うことができる。選択画面600は、操作画面の一例である。 First, the display control unit 33 of the operation unit 30 displays the selection screen 600 shown in FIG. 8 on the operation panel 305 (step S31). The selection screen 600 shown in FIG. 8 includes a selection button that is pressed when the user performs various processes using the image processing device 10. Further, the selection screen 600 includes a "home" button 610 that is pressed when the screen transitions to the home screen, which is the initial screen of the menu display, and a screen where the previous user operation has been performed. A "back" button 630 to be pressed is included. The user can perform a desired operation by, for example, touching the touch panel type operation panel 305 and selecting a button corresponding to a desired process. The selection screen 600 is an example of an operation screen.

次に、操作部30のユーザ操作検知部35は、受付部32によって選択画面600に含まれている所定のボタンの選択が受け付けられることで、ユーザ操作を検知する(ステップS12)。また、ユーザ操作検知部35は、検知されるユーザ操作の操作間隔を監視する。ここで、ユーザ操作の操作間隔とは、例えば、ユーザが最初に操作パネル305にタッチしてから次のボタンを選択するまでの時間、または省電力状態に表示画面が暗転してから次にボタンが選択されるまでの時間である。さらに、ユーザ操作検知部35は、検知されたユーザ操作を操作履歴として、操作履歴管理DB3001(図5(A)参照)に記憶させる。 Next, the user operation detection unit 35 of the operation unit 30 detects the user operation when the reception unit 32 accepts the selection of a predetermined button included in the selection screen 600 (step S12). In addition, the user operation detection unit 35 monitors the operation interval of the detected user operation. Here, the operation interval of the user operation is, for example, the time from when the user first touches the operation panel 305 to when the next button is selected, or after the display screen is dimmed in the power saving state and then the next button. Is the time until is selected. Further, the user operation detection unit 35 stores the detected user operation as an operation history in the operation history management DB 3001 (see FIG. 5A).

次に、操作部30の判断部34は、ユーザ操作検知部35によって監視されている操作間隔が、閾値T以上であるかを判断する(ステップS13)。具体的には、判断部34は、操作アシスト管理DB3003(図5B参照)に記憶されている操作間隔の閾値Tを参照し、ユーザ操作の操作間隔が閾値Tを経過したかを判断する。判断部34は、操作間隔が閾値T以上である場合(ステップS13のYES)、処理をステップS17へ移行させる。一方で、判断部34は、操作間隔が閾値Tより短い場合(ステップS13のNO)、処理をステップS14へ移行させる。 Next, the determination unit 34 of the operation unit 30 determines whether the operation interval monitored by the user operation detection unit 35 is equal to or greater than the threshold value T (step S13). Specifically, the determination unit 34 refers to the threshold value T of the operation interval stored in the operation assist management DB 3003 (see FIG. 5B), and determines whether or not the operation interval of the user operation has passed the threshold value T. When the operation interval is equal to or greater than the threshold value T (YES in step S13), the determination unit 34 shifts the process to step S17. On the other hand, when the operation interval is shorter than the threshold value T (NO in step S13), the determination unit 34 shifts the process to step S14.

次に、操作部30の記憶・読出部49は、操作履歴管理DB3001に記憶されている操作履歴を読み出して取得する(ステップ14)。そして、操作部30の判断部34は、操作中のユーザに対する操作アシストをより高い精度で実現させるために、ユーザ操作の回数が閾値C以上であるかを判断する(ステップS15)。具体的には、判断部34は、操作アシスト管理DB3003に記憶されている操作回数の閾値Cを参照し、ユーザ操作の操作回数が閾値Cを超えたかを判断する。判断部34は、操作回数が閾値C以上である場合(ステップS15のYES)、処理をステップS17へ移行させる。 Next, the storage / reading unit 49 of the operation unit 30 reads and acquires the operation history stored in the operation history management DB 3001 (step 14). Then, the determination unit 34 of the operation unit 30 determines whether the number of user operations is equal to or greater than the threshold value C in order to realize the operation assist for the user during the operation with higher accuracy (step S15). Specifically, the determination unit 34 refers to the threshold value C of the number of operations stored in the operation assist management DB 3003, and determines whether the number of operations of the user operation exceeds the threshold value C. When the number of operations is equal to or greater than the threshold value C (YES in step S15), the determination unit 34 shifts the process to step S17.

一方で、判断部34は、操作回数が閾値Cより少ない場合(ステップS15のNO)、処理をステップS16へ移行させる。そして、判断部34は、ユーザ操作に応じて特定の画面遷移が行われたかどうかを判断する(ステップS16)。具体的には、判断部34は、表示画面の画面遷移が操作アシスト管理DB3003に記憶されている特定の画面遷移に該当するかを判断する。ここで、特定の画面遷移には、他の画面に遷移した後に、元の画面に戻る操作が行われた場合等が該当する。判断部34は、ユーザ操作に応じた特定の画面遷移が行われた場合(ステップS16のYES)、処理をステップS17へ移行させる。一方で、判断部34は、ユーザ操作に応じた特定の画面遷移が行われていない場合(ステップS16のNO)、操作中のユーザに対する操作アシストが不要であると判断し、ステップS12からの処理を繰り返す。 On the other hand, when the number of operations is less than the threshold value C (NO in step S15), the determination unit 34 shifts the process to step S16. Then, the determination unit 34 determines whether or not a specific screen transition has been performed according to the user operation (step S16). Specifically, the determination unit 34 determines whether the screen transition of the display screen corresponds to a specific screen transition stored in the operation assist management DB 3003. Here, the specific screen transition corresponds to the case where an operation of returning to the original screen is performed after the transition to another screen. When a specific screen transition is performed according to the user operation (YES in step S16), the determination unit 34 shifts the process to step S17. On the other hand, when the determination unit 34 does not perform a specific screen transition according to the user operation (NO in step S16), the determination unit 34 determines that the operation assist for the operating user is unnecessary, and processes from step S12. repeat.

ここで、図9を用いて、操作部30に表示された表示画面の特定の画面遷移の一例について説明する。図9は、実施形態に係る画像処理装置に表示される表示画面の画面遷移の一例を説明するための図である。まず、操作部30の表示制御部33は、図9に示されている画面Aの「コピー」ボタンがユーザによって選択されると、画面Bに示されているようなコピーの詳細機能の選択画面に表示画面を遷移させる。また、画面Bにおいてユーザが「戻る」ボタン630を選択すると、表示制御部33は、画面Bから元の画面Aに表示画面を戻す。この場合、操作部30は、「画面A→画面B→画面A」の画面遷移を検知し、検知した画面遷移が操作アシスト管理DB3003に記憶されている特定の画面遷移に該当するかを判断する。 Here, an example of a specific screen transition of the display screen displayed on the operation unit 30 will be described with reference to FIG. FIG. 9 is a diagram for explaining an example of screen transition of the display screen displayed on the image processing device according to the embodiment. First, the display control unit 33 of the operation unit 30 displays a selection screen for detailed copy functions as shown on the screen B when the "copy" button on the screen A shown in FIG. 9 is selected by the user. The display screen is changed to. Further, when the user selects the "back" button 630 on the screen B, the display control unit 33 returns the display screen from the screen B to the original screen A. In this case, the operation unit 30 detects the screen transition of "screen A-> screen B-> screen A" and determines whether the detected screen transition corresponds to a specific screen transition stored in the operation assist management DB 3003. ..

次に、操作部30のユーザ使用機能推測部37は、ユーザが使用したい所望の機能であるユーザ使用機能を推測する処理を実行する(ステップS17)。ここで、図10を用いて、画像処理装置10によるユーザ使用機能推測処理の詳細を説明する。図10は、実施形態に係る画像処理装置におけるユーザ使用機能推測処理の一例を示すフローチャートである。 Next, the user use function estimation unit 37 of the operation unit 30 executes a process of estimating the user use function, which is a desired function that the user wants to use (step S17). Here, the details of the user use function estimation process by the image processing device 10 will be described with reference to FIG. FIG. 10 is a flowchart showing an example of user use function estimation processing in the image processing apparatus according to the embodiment.

まず、操作部30の機器情報取得部36は、画像処理装置10に配置された周辺機器の機器情報を取得する(ステップS171)。具体的には、本体部50の機器情報取得部53は、機器I/F511を介して、各周辺機器が有するセンサからのセンサ信号を含む機器情報を取得する。また、本体部50の入出力部51は、操作部30に対して、取得された機器情報を送信する。そして、操作部30の機器情報取得部36は、入出力部31によって受信された機器情報を取得する。 First, the device information acquisition unit 36 of the operation unit 30 acquires device information of peripheral devices arranged in the image processing device 10 (step S171). Specifically, the device information acquisition unit 53 of the main body unit 50 acquires device information including sensor signals from sensors of each peripheral device via the device I / F 511. Further, the input / output unit 51 of the main body unit 50 transmits the acquired device information to the operation unit 30. Then, the device information acquisition unit 36 of the operation unit 30 acquires the device information received by the input / output unit 31.

次に、操作部30の判断部34は、機器情報取得部36によって取得された機器情報を用いて、処理対象の原稿の有無を判断する(ステップS172)。具体的には、判断部34は、ADF531から送信された機器情報に含まれるセンサ信号が原稿のあることを示す場合(ステップS172のYES)、処理をステップS173へ移行させる。そして、操作部30のユーザ使用機能推測部37は、処理対象の原稿がある場合、処理対象の原稿に対するコピー、スキャナまたはFAX機能の操作が次に行われる可能性が高いため、ユーザ使用機能がコピー、スキャンおよびFAXのいずれかであると推測する(ステップS173)。 Next, the determination unit 34 of the operation unit 30 determines the presence or absence of the original document to be processed by using the device information acquired by the device information acquisition unit 36 (step S172). Specifically, when the sensor signal included in the device information transmitted from the ADF531 indicates that there is a document (YES in step S172), the determination unit 34 shifts the process to step S173. Then, when there is a document to be processed, the user use function estimation unit 37 of the operation unit 30 is likely to perform a copy, a scanner, or a fax function operation on the document to be processed next, so that the user use function can be used. It is presumed to be either copy, scan or fax (step S173).

一方で、判断部34は、ADF531から送信された機器情報に含まれるセンサ信号が原稿のないことを示す場合(ステップS172のNO)、処理をステップS174へ移行させる。そして、操作部30のユーザ使用機能推測部37は、処理対象の原稿がない場合、画像処理装置10に対して何らかの設定操作が行われる可能性が高いため、ユーザ使用機能が設定メニューであると推測する(ステップS174)。次に、ユーザ使用機能推測部37は、設定操作が行われる場合には、直前にいずれかの周辺機器が操作されている可能性が高いため、ステップS171で取得された機器情報に含まれるセンサ信号の変化の有無を特定する(ステップS175)。ここで、センサ信号の変化とは、例えば、給紙トレイ535の開閉、ADF531の開閉、トナー補給、またはLANケーブルの挿抜等の各種周辺機器から出力されるセンサ信号の値の変化である。 On the other hand, when the sensor signal included in the device information transmitted from the ADF531 indicates that there is no document (NO in step S172), the determination unit 34 shifts the process to step S174. Then, the user use function estimation unit 37 of the operation unit 30 is likely to perform some setting operation on the image processing device 10 when there is no original to be processed. Therefore, the user use function is a setting menu. Guess (step S174). Next, when the setting operation is performed, the user use function estimation unit 37 has a high possibility that one of the peripheral devices has been operated immediately before, so that the sensor included in the device information acquired in step S171 The presence or absence of a signal change is specified (step S175). Here, the change in the sensor signal is, for example, a change in the value of the sensor signal output from various peripheral devices such as opening / closing the paper feed tray 535, opening / closing the ADF531, replenishing toner, and inserting / removing the LAN cable.

そして、判断部34は、操作アシスト管理DB3003を検索することで、センサ信号の変化に応じた設定操作が存在するかどうかを判断する(ステップS176)。具体的には、判断部34は、操作アシスト管理DB3003に記憶されているアシスト項目のうち、センサ信号の変化のあるセンサ(センサ位置)に関連づけられたアシスト項目が存在する場合、センサ信号の変化に応じた設定操作が存在すると判断する。判断部34は、センサ信号の変化に応じた設定操作が存在する場合(ステップS176のYES)、処理をステップS177へ移行させる。一方で、判断部34は、センサ信号の変化に応じた設定操作が存在しない場合(ステップS176のNO)、ユーザ使用機能の推測ができないものとして、ユーザ使用機能推測処理を終了する。 Then, the determination unit 34 determines whether or not there is a setting operation according to the change in the sensor signal by searching the operation assist management DB 3003 (step S176). Specifically, the determination unit 34 changes the sensor signal when there is an assist item associated with the sensor (sensor position) in which the sensor signal changes among the assist items stored in the operation assist management DB 3003. It is determined that there is a setting operation according to. When the setting operation corresponding to the change of the sensor signal exists (YES in step S176), the determination unit 34 shifts the process to step S177. On the other hand, when the setting operation corresponding to the change of the sensor signal does not exist (NO in step S176), the determination unit 34 terminates the user use function estimation process assuming that the user use function cannot be estimated.

そして、操作部30のユーザ使用機能推測部37は、ステップS173での推測結果またはステップS174〜ステップS176での処理結果に基づいて、ユーザが使用したい所望の機能であるユーザ使用機能を推測する(ステップS177)。具体的には、ユーザ使用機能推測部37は、操作アシスト管理DB3003に記憶されているアシスト項目および各種条件を参照し、ユーザ操作の操作履歴およびステップS171で取得された機器情報の種類に対応するアシスト項目を検索することによって、ユーザ使用機能を推測する。図5(A)および図5(B)に示されている例の場合、操作履歴に含まれている画面遷移情報が、アシスト項目「スキャン」に関連づけられた特定の画面遷移(画面A→画面B→画面A)に該当するため、ユーザ使用機能推測部37は、スキャン機能をユーザ使用機能であると推測する。 Then, the user use function estimation unit 37 of the operation unit 30 estimates the user use function, which is a desired function that the user wants to use, based on the estimation result in step S173 or the processing result in steps S174 to S176. Step S177). Specifically, the user use function estimation unit 37 refers to the assist items and various conditions stored in the operation assist management DB 3003, and corresponds to the operation history of the user operation and the type of device information acquired in step S171. Guess user-used functions by searching for assist items. In the case of the example shown in FIGS. 5 (A) and 5 (B), the screen transition information included in the operation history is a specific screen transition (screen A → screen) associated with the assist item “scan”. Since it corresponds to B → screen A), the user use function estimation unit 37 estimates that the scan function is a user use function.

これにより、画像処理装置10は、ユーザ操作の操作履歴および画像処理装置10に備えられた周辺機器からのセンサ信号に基づいて、ユーザが使用したい所望の機能をリアルタイムに推測することができる。 Thereby, the image processing device 10 can estimate the desired function that the user wants to use in real time based on the operation history of the user operation and the sensor signal from the peripheral device provided in the image processing device 10.

図7に戻り、画像処理装置10における操作アシスト処理の説明を続ける。操作部30の判断部34は、図10に示されている処理の結果に応じて、ユーザの使用機能の推測が可能かどうかを判断する(ステップS18)。判断部34は、ユーザの使用機能の推測が可能である場合(ステップS18のYES)、処理をステップS19へ移行させる。操作部30の操作アシスト決定部38は、ユーザ使用機能推測部37によって推測されたユーザ使用機能に応じた表示形態を決定する(ステップS19)。そして、操作部30の表示制御部33は、操作アシスト決定部38によって決定された表示形態の操作画面である操作アシスト画面700を、操作パネル305に表示させる(ステップS20)。 Returning to FIG. 7, the description of the operation assist process in the image processing device 10 will be continued. The determination unit 34 of the operation unit 30 determines whether or not the function used by the user can be estimated according to the result of the process shown in FIG. 10 (step S18). When the function used by the user can be estimated (YES in step S18), the determination unit 34 shifts the process to step S19. The operation assist determination unit 38 of the operation unit 30 determines the display form according to the user use function estimated by the user use function estimation unit 37 (step S19). Then, the display control unit 33 of the operation unit 30 causes the operation panel 305 to display the operation assist screen 700, which is the operation screen of the display form determined by the operation assist determination unit 38 (step S20).

図11(A)は、実施形態に係る画像処理装置に表示される操作アシスト画面の一例を示す図である。図11(A)に示されている操作アシスト画面700は、スキャン機能がユーザ使用機能推測部37によってユーザ使用機能として推測された例である。操作アシスト画面700には、図8に示されている選択画面600に加えて、スキャン機能を示す機能メニューが拡大表示された拡大ボタン750が含まれている。図8に示されているような通常の選択画面600の場合、異なる機能メニューを示す複数のボタンの中からユーザが使用したい機能を自発的に選択する必要がある。一方で、操作アシスト画面700では、例えば、ユーザが操作に迷っているような場合、上記操作アシスト処理によって決定された表示形態を用いて、ユーザが使用したい機能として推測されたメニューを拡大表示することで、ユーザの操作アシストを行うことができる。なお、図11(A)に示されている操作アシスト画面700には、拡大ボタン750を表示させる表示形態の例を説明したが、画像処理装置10は、推測されたユーザ使用機能に対応するボタンの色を変更したり、点滅させたりして当該ボタンをユーザが区別可能な表示形態で操作アシストを行う構成であってもよい。操作アシスト画面700は、操作画面の一例である。 FIG. 11A is a diagram showing an example of an operation assist screen displayed on the image processing device according to the embodiment. The operation assist screen 700 shown in FIG. 11A is an example in which the scanning function is estimated as the user-used function by the user-used function estimating unit 37. In addition to the selection screen 600 shown in FIG. 8, the operation assist screen 700 includes an enlargement button 750 in which a function menu showing a scan function is enlarged and displayed. In the case of the normal selection screen 600 as shown in FIG. 8, it is necessary for the user to voluntarily select a function to be used from a plurality of buttons indicating different function menus. On the other hand, on the operation assist screen 700, for example, when the user is uncertain about the operation, the menu estimated as the function that the user wants to use is enlarged and displayed by using the display form determined by the operation assist process. This makes it possible to assist the user's operation. Although an example of a display form in which the enlargement button 750 is displayed on the operation assist screen 700 shown in FIG. 11A has been described, the image processing device 10 is a button corresponding to the inferred user-use function. The color of the button may be changed or blinked to assist the operation of the button in a display form that can be distinguished by the user. The operation assist screen 700 is an example of the operation screen.

一方で、操作部30の判断部34は、ユーザの使用機能の推測ができない場合(ステップS18のNO)、処理をステップS20へ移行させる。そして、操作部30の表示制御部33は、レコメンド画面800を表示させる(ステップS20)。図11(B)は、実施形態に係る画像処理装置に表示されるレコメンド画面の一例を示す図である。図11(B)に示されているレコメンド画面800は、ユーザ使用機能推測部37によってユーザ使用機能が推測できなかった場合に、推測処理の過程において凡そ予想可能な機能をレコメンド機能(おすすめ機能)としてユーザに提示するための表示画面である。レコメンド画面800には、図8に示されている選択画面600に加えて、レコメンド領域850が追加されて表示されている。レコメンド領域850には、「あなたの利用したい機能は「FAX」ですか?」等のレコメンドメッセージ、レコメンドメッセージに応じる場合に押下される「OK」ボタン851、およびレコメンドメッセージに応じずにレコメンド領域850を閉じる場合に押下される「閉じる」ボタン853が含まれている。ユーザがレコメンド領域850に含まれる「OK」ボタン851を選択した場合、画像処理装置10は、レコメンドメッセージに示されている機能に対する操作アシストを実行する。なお、レコメンド画面800の表示形態はこれに限られず、バナーやプッシュ通知等を用いてレコメンドメッセージを表示させてもよい。レコメンド画面800は、操作画面の一例である。 On the other hand, when the determination unit 34 of the operation unit 30 cannot estimate the function used by the user (NO in step S18), the determination unit 34 shifts the process to step S20. Then, the display control unit 33 of the operation unit 30 displays the recommendation screen 800 (step S20). FIG. 11B is a diagram showing an example of a recommendation screen displayed on the image processing device according to the embodiment. The recommendation screen 800 shown in FIG. 11 (B) recommends a function that can be roughly predicted in the process of guessing when the user use function cannot be guessed by the user use function guessing unit 37 (recommended function). It is a display screen for presenting to the user as. On the recommendation screen 800, in addition to the selection screen 600 shown in FIG. 8, a recommendation area 850 is additionally displayed. In the recommendation area 850, "Is the function you want to use" FAX "? , Etc., an "OK" button 851 that is pressed when responding to the recommendation message, and a "close" button 853 that is pressed when the recommendation area 850 is closed without responding to the recommendation message. When the user selects the "OK" button 851 included in the recommendation area 850, the image processing device 10 executes operation assist for the function indicated in the recommendation message. The display form of the recommendation screen 800 is not limited to this, and the recommendation message may be displayed by using a banner, push notification, or the like. The recommendation screen 800 is an example of an operation screen.

●実施形態の効果
以上説明したように、画像処理装置10は、ユーザ操作の操作間隔、操作回数またはユーザ操作に応じた画面遷移の情報等の操作履歴、並びに画像処理装置10が有する周辺機器からのセンサ信号を用いて、ユーザに提供する操作アシストの内容を決定する。これにより、画像処理装置10は、ユーザのリアルタイムの操作状況に応じた操作アシストを提供することができる。
● Effects of the Embodiment As described above, the image processing device 10 is based on the operation history such as the operation interval of the user operation, the number of operations, or the information of the screen transition according to the user operation, and the peripheral devices included in the image processing device 10. The content of the operation assist to be provided to the user is determined by using the sensor signal of. As a result, the image processing device 10 can provide operation assist according to the real-time operation status of the user.

●実施形態の変形例●
●変形例1
次に、図12乃至図15を用いて、実施形態の変形例に係る画像処理装置について説明する。なお、各変形例において、上記実施形態と同一構成および同一機能は、同一の符号を付して、その説明を省略する。まず、図9を用いて、実施形態の変形例1に係る画像処理装置の処理について説明する。変形例1に係る画像処理装置10によって実行される処理は、ユーザごとの操作習熟度レベルに応じて、操作アシストレベルを設定する処理である。
● Modification example of the embodiment ●
● Modification example 1
Next, the image processing apparatus according to the modified example of the embodiment will be described with reference to FIGS. 12 to 15. In each modification, the same configuration and the same function as those in the above embodiment are designated by the same reference numerals, and the description thereof will be omitted. First, the processing of the image processing apparatus according to the first modification of the embodiment will be described with reference to FIG. The process executed by the image processing device 10 according to the first modification is a process of setting the operation assist level according to the operation proficiency level for each user.

図12は、実施形態の変形例1に係る画像処理装置における操作アシスト処理の一例を示すフローチャートである。なお、ステップS31〜ステップS34の処理は、図7に示されているステップS11〜ステップS14の処理と同様であるため説明を省略する。 FIG. 12 is a flowchart showing an example of operation assist processing in the image processing apparatus according to the first modification of the embodiment. Since the processing of steps S31 to S34 is the same as the processing of steps S11 to S14 shown in FIG. 7, the description thereof will be omitted.

操作部30の判定部41は、ステップS34で取得された操作履歴に基づいて、ユーザの操作の習熟度レベルを判定する(ステップS35)。具体的には、判定部41は、操作履歴に含まれている画面遷移情報を参照し、所定時間内に何らかの画面遷移が行われたかどうかを判定する。そして、判定部41は、所定時間内に画面遷移が行われた場合、操作に慣れたユーザであると判断し、操作中のユーザの操作習熟度が高いと判定する。一方で、判定部41は、所定時間内に画面遷移が行われていない場合、操作に不慣れなユーザであると判断し、操作中のユーザの操作習熟度が低いと判定する。 The determination unit 41 of the operation unit 30 determines the proficiency level of the user's operation based on the operation history acquired in step S34 (step S35). Specifically, the determination unit 41 refers to the screen transition information included in the operation history, and determines whether or not any screen transition has been performed within a predetermined time. Then, when the screen transition is performed within the predetermined time, the determination unit 41 determines that the user is accustomed to the operation, and determines that the operation proficiency of the user during the operation is high. On the other hand, if the screen transition is not performed within the predetermined time, the determination unit 41 determines that the user is unfamiliar with the operation, and determines that the operation proficiency of the user during the operation is low.

そして、判定部41は、操作中のユーザの操作習熟度が高いと判定した場合(ステップS36のYES)、処理をステップS38へ移行させる。ステップS38以降の処理は、図7に示されているステップS17以降の処理と同様であるため、説明を省略する。 Then, when the determination unit 41 determines that the operation proficiency of the user during the operation is high (YES in step S36), the determination unit 41 shifts the process to step S38. Since the processing after step S38 is the same as the processing after step S17 shown in FIG. 7, the description thereof will be omitted.

一方で、判定部41は、操作中のユーザの操作習熟度が低いと判定した場合(ステップS36のNO)、処理をステップS37へ移行させる。そして、操作部30は、操作アシストを停止させ、操作アシスト処理を終了する(ステップS37)。なお、画像処理装置10は、ステップS37で操作アシスト機能を停止させた場合、人感センサ533等で操作中のユーザが画像処理装置10の前から居なくなったことを検知した時点で、操作アシスト機能を再度起動させる等の構成であってもよい。 On the other hand, when the determination unit 41 determines that the operation proficiency of the user during the operation is low (NO in step S36), the determination unit 41 shifts the process to step S37. Then, the operation unit 30 stops the operation assist and ends the operation assist process (step S37). When the operation assist function is stopped in step S37, the image processing device 10 assists the operation when the human sensor 533 or the like detects that the user who is operating is no longer in front of the image processing device 10. The configuration may be such that the function is restarted.

これにより、変形例1に係る画像処理装置10は、操作習熟度が低いユーザには詳細な操作アシストを行い、操作習熟度の高いユーザには操作アシストを行わないようにすることで、不要な操作アシストを抑制することができ、ユーザビリティが向上させることができる。 As a result, the image processing device 10 according to the first modification is unnecessary by providing detailed operation assist to a user having a low operation proficiency level and not performing an operation assist to a user having a high operation proficiency level. Operation assist can be suppressed and usability can be improved.

●変形例2
次に、図13を用いて、実施形態の変形例2に係る画像処理装置の処理について説明する。変形例2に係る画像処理装置10によって実行される処理は、操作部30の機器情報取得部36によって取得された機器情報に含まれるセンサ信号の直前の変化を検知して、操作アシストを決定する処理である。
● Modification example 2
Next, the processing of the image processing apparatus according to the second modification of the embodiment will be described with reference to FIG. The process executed by the image processing device 10 according to the second modification detects the change immediately before the sensor signal included in the device information acquired by the device information acquisition unit 36 of the operation unit 30 and determines the operation assist. It is a process.

図13は、実施形態の変形例2に係る画像処理装置におけるユーザ使用機能推測処理の一例を示すフローチャートである。まず、操作部30の機器情報取得部36は、画像処理装置10に配置された周辺機器の機器情報を取得する(ステップS271)。具体的には、本体部50の機器情報取得部53は、機器I/F511を介して、各周辺機器が有するセンサからのセンサ信号を含む機器情報を取得する。また、本体部50の入出力部51は、操作部30に対して、取得された機器情報を送信する。そして、操作部30の機器情報取得部36は、入出力部31によって受信された機器情報を取得する。 FIG. 13 is a flowchart showing an example of user use function estimation processing in the image processing apparatus according to the second modification of the embodiment. First, the device information acquisition unit 36 of the operation unit 30 acquires device information of peripheral devices arranged in the image processing device 10 (step S271). Specifically, the device information acquisition unit 53 of the main body unit 50 acquires device information including sensor signals from sensors of each peripheral device via the device I / F 511. Further, the input / output unit 51 of the main body unit 50 transmits the acquired device information to the operation unit 30. Then, the device information acquisition unit 36 of the operation unit 30 acquires the device information received by the input / output unit 31.

次に、判断部34は、ステップS171で取得された機器情報のうち、直前に取得された機器情報に含まれるセンサ信号の変化の有無を判断する(ステップS272)。ここで、直前に取得された機器情報とは、機器情報取得部53によって直近に取得された機器情報である。 Next, the determination unit 34 determines whether or not there is a change in the sensor signal included in the device information acquired immediately before among the device information acquired in step S171 (step S272). Here, the device information acquired immediately before is the device information most recently acquired by the device information acquisition unit 53.

判断部34は、直前のセンサ信号の変化がある場合(ステップS272のYES)、処理をステップS273へ移行させる。一方で、判断部34は、直前のセンサ信号の変化がない場合(ステップS273のNO)、ステップS271からの処理を繰り返す。 If there is a change in the sensor signal immediately before (YES in step S272), the determination unit 34 shifts the process to step S273. On the other hand, if there is no change in the sensor signal immediately before (NO in step S273), the determination unit 34 repeats the process from step S271.

次に、判断部34は、操作アシスト管理DB3003(図5(B)参照)を検索することで、直前のセンサ信号の変化に応じたアシスト項目が存在するかどうかを判断する(ステップS273)。具体的には、判断部34は、操作アシスト管理DB3003に記憶されているアシスト項目のうち、センサ信号の変化のあるセンサ(センサ位置)に関連づけられたアシスト項目が存在する場合、直前のセンサ信号の変化に応じたアシスト項目が存在すると判断する。判断部34は、直前のセンサ信号の変化に応じたアシスト項目が存在する場合(ステップS273のYES)、処理をステップS274へ移行させる。ステップS274以降の処理は、図10に示されているステップS172以降の処理と同様であるため、説明を省略する。一方で、判断部34は、直前のセンサ信号の変化に応じたアシスト項目が存在しない場合(ステップS273のNO)、ステップS271からの処理を繰り返す。 Next, the determination unit 34 determines whether or not there is an assist item corresponding to the change in the immediately preceding sensor signal by searching the operation assist management DB 3003 (see FIG. 5B) (step S273). Specifically, when the determination unit 34 has an assist item associated with a sensor (sensor position) having a change in the sensor signal among the assist items stored in the operation assist management DB 3003, the determination unit 34 immediately before the sensor signal. It is judged that there is an assist item according to the change of. When the assist item corresponding to the change of the immediately preceding sensor signal exists (YES in step S273), the determination unit 34 shifts the process to step S274. Since the processing after step S274 is the same as the processing after step S172 shown in FIG. 10, the description thereof will be omitted. On the other hand, when the assist item corresponding to the change of the immediately preceding sensor signal does not exist (NO in step S273), the determination unit 34 repeats the process from step S271.

これにより、変形例2に係る画像処理装置10は、直前のセンサ信号の変化を優先的に操作アシストの判断に用いることで、ユーザ使用機能の推測精度を向上させることができる。また、変形例2に係る画像処理装置10は、例えば、直前に変化のあったセンサ信号のみを操作アシストの判断に用いることで、センサ信号の通信量および操作アシスト処理に用いる情報量を抑制して、画像処理装置10の処理負荷を低減させることができる。 As a result, the image processing device 10 according to the second modification can improve the estimation accuracy of the user-used function by preferentially using the change in the sensor signal immediately before for the determination of the operation assist. Further, the image processing device 10 according to the second modification uses, for example, only the sensor signal that has changed immediately before for the determination of the operation assist, thereby suppressing the communication amount of the sensor signal and the amount of information used for the operation assist processing. Therefore, the processing load of the image processing device 10 can be reduced.

●変形例3
次に、図14を用いて、実施形態の変形例3に係る画像処理装置の処理について説明する。変形例3に係る画像処理装置10によって実行される処理は、ユーザ認証結果を用いたユーザ権限に基づいて、ユーザ使用機能推測処理の推測レベルを設定する処理である。
● Modification example 3
Next, the processing of the image processing apparatus according to the third modification of the embodiment will be described with reference to FIG. The process executed by the image processing device 10 according to the third modification is a process of setting the guess level of the user use function guessing process based on the user authority using the user authentication result.

図14は、実施形態の変形例3に係る画像処理装置における操作アシスト処理の一例を示すフローチャートである。まず、操作部30の受付部32は、ユーザの操作パネルのユーザ情報の入力を受け付ける(ステップS51)。ここで、ユーザ情報には、例えば、ユーザIDおよびパスワードが含まれている。次に、操作部30の認証部42は、ステップS51で受け付けられたユーザ情報を利用してユーザの認証を行う(ステップS52)。具体的には、記憶・読出部49は、権限情報管理DB3005(図6参照)において、ステップS51で受け付けられたユーザIDおよびパスワードの組に対応するユーザIDおよびパスワードの組を検索する。対応する組がある場合には、認証部42は、要求元のユーザを正当なユーザであると判断する。対応する組がない場合には、認証部42は、要求元のユーザを不当な(正当でない)ユーザであると判断する。正当でない場合には、表示制御部33が操作パネル305に対して正当でない旨の通知(表示)を行うが、以下では、正当である場合について説明を続ける。 FIG. 14 is a flowchart showing an example of operation assist processing in the image processing apparatus according to the third modification of the embodiment. First, the reception unit 32 of the operation unit 30 accepts the input of user information on the user's operation panel (step S51). Here, the user information includes, for example, a user ID and a password. Next, the authentication unit 42 of the operation unit 30 authenticates the user using the user information received in step S51 (step S52). Specifically, the storage / reading unit 49 searches the authority information management DB 3005 (see FIG. 6) for the user ID / password set corresponding to the user ID / password set received in step S51. If there is a corresponding pair, the authentication unit 42 determines that the requesting user is a legitimate user. If there is no corresponding pair, the authentication unit 42 determines that the requesting user is an unjust (illegal) user. If it is not valid, the display control unit 33 notifies (displays) that it is not valid to the operation panel 305, but the case where it is valid will be described below.

次に、認証部42は、認証されたユーザが操作アシスト機能を利用する際のユーザ権限を設定する(ステップS53)。具体的には、記憶・読出部49は、認証部42は、権限情報管理DB3005において、認証されたユーザのユーザIDおよびパスワードに関連づけられている権限情報を読み出す。そして、認証部42は、読み出された権限情報に示されているユーザ権限の設定を行う。 Next, the authentication unit 42 sets the user authority when the authenticated user uses the operation assist function (step S53). Specifically, in the storage / reading unit 49, the authentication unit 42 reads out the authority information associated with the user ID and password of the authenticated user in the authority information management DB 3005. Then, the authentication unit 42 sets the user authority shown in the read authority information.

そして、画像処理装置10は、認証部42によって設定されたユーザ権限に応じた操作アシスト処理を実行する(ステップS54)。この場合、画像処理装置10は、操作アシスト管理DB3003(図5(B)参照)に記憶されているアシスト項目のうち、ステップS53で設定されたユーザ権限に関連づけられたアシスト項目の範囲内で、操作アシスト処理を実行する。なお、ステップS54における操作アシスト処理の詳細は、図10に示されているような処理と同様である。 Then, the image processing device 10 executes the operation assist process according to the user authority set by the authentication unit 42 (step S54). In this case, the image processing device 10 has the assist items stored in the operation assist management DB 3003 (see FIG. 5B) within the range of the assist items associated with the user authority set in step S53. Execute operation assist processing. The details of the operation assist process in step S54 are the same as those shown in FIG.

これにより、実施形態の変形例3に係る画像処理装置10は、ユーザ権限によって提供可能な操作アシスト機能を制限することができるので、操作アシスト処理に掛かる処理負担を低減させることができる。 As a result, the image processing device 10 according to the third modification of the embodiment can limit the operation assist functions that can be provided by the user authority, so that the processing load on the operation assist process can be reduced.

●変形例4
次に、図15を用いて、実施形態の変形例4に係る画像処理装置の処理について説明する。変形例4に係る画像処理装置10によって実行される処理は、周辺機器から送信される機器情報を活用して、画像処理装置10の異常解消をアシストするための処理である。
● Modification example 4
Next, the processing of the image processing apparatus according to the modified example 4 of the embodiment will be described with reference to FIG. The process executed by the image processing device 10 according to the fourth modification is a process for assisting the resolution of the abnormality of the image processing device 10 by utilizing the device information transmitted from the peripheral device.

図15は、実施形態の変形例4に係る画像処理装置におけるユーザ使用機能推測処理の一例を示すフローチャートである。ステップS371〜ステップS373の処理は、図13に示されているステップS271〜ステップS273の処理と同様である。特に、ステップS371の処理において、機器情報取得部36は、例えば、ユーザが操作可能なADF531または給紙トレイ535等のみならず、画像処理装置10の異常状態を検知することができるセンサを有する周辺機器からセンサ信号を取得する。また、ステップS373において、ユーザ使用機能推測部37は、異常解消アシスト項目が記憶された操作アシスト管理テーブルを用いて、アシスト項目が存在するかの判断を行う。そして、操作部30のユーザ使用機能推測部37は、センサ信号の変化に応じたアシスト項目が存在する場合、異常解消アシストの内容を推測する(ステップS374)。 FIG. 15 is a flowchart showing an example of user use function estimation processing in the image processing apparatus according to the fourth modification of the embodiment. The processing of steps S371 to S373 is the same as the processing of steps S271 to S273 shown in FIG. In particular, in the process of step S371, the device information acquisition unit 36 has not only a user-operable ADF531 or a paper feed tray 535, but also a peripheral sensor capable of detecting an abnormal state of the image processing device 10. Get the sensor signal from the device. Further, in step S373, the user use function estimation unit 37 determines whether or not the assist item exists by using the operation assist management table in which the abnormality resolution assist item is stored. Then, the user use function estimation unit 37 of the operation unit 30 estimates the content of the abnormality resolution assist when there is an assist item corresponding to the change in the sensor signal (step S374).

これにより、実施形態の変形例4に係る画像処理装置10は、取得された機器情報に基づいて画像処理装置10のハードウエアの故障や不具合等の異常状態を判断することで、操作パネル305に対するユーザ操作の操作アシストのみでなく、画像処理装置10の異常解消アシストを行うことができる。従来、画像処理装置に何らかの異常が発生した場合、それを解消するためのガイドや案内等を操作パネルに表示される技術は知られているが、変形例4に係る画像処理装置10は、例えば、ユーザが何度も同じような操作を繰り返している場合等、表示された操作アシスト画面700に沿って操作しても異常が解消しない場合に、周辺機器から送信された各種機器情報を活用して、異常解消アシストの内容を変更することできる。 As a result, the image processing device 10 according to the modified example 4 of the embodiment determines an abnormal state such as a hardware failure or malfunction of the image processing device 10 based on the acquired device information, thereby asking the operation panel 305. Not only the operation assist of the user operation but also the abnormality resolution assist of the image processing device 10 can be performed. Conventionally, there is known a technique of displaying a guide, a guide, or the like for solving an abnormality in an image processing device on an operation panel. However, the image processing device 10 according to the modified example 4 is, for example, , When the user repeats the same operation many times, or when the abnormality is not resolved even if the operation is performed according to the displayed operation assist screen 700, various device information transmitted from the peripheral device is utilized. Therefore, the content of the abnormality resolution assist can be changed.

●まとめ●
以上説明したように、本発明の一実施形態に係る機器は、所定の入力操作を受け付ける操作パネル305(操作手段の一例)を備えた画像処理装置10である。画像処理装置10は、操作パネル305に対して受け付けられたユーザ操作を検知するユーザ操作検知部35(ユーザ操作検知手段の一例)と、画像処理装置10の特定の位置に配置された周辺機器(センサの一例)から出力されたセンサ信号を含む機器情報を取得する機器情報取得部36(機器情報取得手段の一例)と、検知されたユーザ操作の履歴を示す履歴情報および取得された機器情報に基づいて、画像処理装置10に実行させる処理を選択可能な操作画面(例えば、操作アシスト画面700)を操作パネル305に表示させる表示制御部33(表示制御手段の一例)と、を備える。これにより、画像処理装置10は、ユーザのリアルタイムな操作状況に応じた操作アシストを提供することができる。
● Summary ●
As described above, the device according to the embodiment of the present invention is an image processing device 10 provided with an operation panel 305 (an example of an operation means) that accepts a predetermined input operation. The image processing device 10 includes a user operation detection unit 35 (an example of a user operation detecting means) that detects a user operation received by the operation panel 305, and a peripheral device (an example of a user operation detecting means) arranged at a specific position of the image processing device 10. The device information acquisition unit 36 (an example of the device information acquisition means) that acquires the device information including the sensor signal output from the sensor), the history information indicating the history of the detected user operation, and the acquired device information. Based on this, it includes a display control unit 33 (an example of display control means) for displaying an operation screen (for example, an operation assist screen 700) on the operation panel 305 on which a process to be executed by the image processing device 10 can be selected. As a result, the image processing device 10 can provide operation assist according to the real-time operation status of the user.

また、本発明の一実施形態に係る画像処理装置10(機器の一例)は、ユーザ操作の履歴を示す履歴情報および取得された機器情報に基づいて、所望の処理を推測するユーザ使用機能推測部37(推測手段の一例)と、推測された処理に応じた操作アシストを行うための操作画面(例えば、操作アシスト画面700)の表示形態を決定する操作アシスト決定部38(決定手段の一例)と、を備え、決定された表示形態の操作画面を操作パネル305(操作手段の一例)に表示させる。また、画像処理装置10は、操作パネル305に表示されている操作画面の表示形態(例えば、選択画面600)を、決定された表示形態(例えば、操作アシスト画面700)に変更する。これにより、画像処理装置10は、ユーザのリアルタイムな操作状況に応じて操作パネル305に表示される操作画面の表示形態を変更させることで、ユーザが求める操作アシストの精度を向上させることができる。 Further, the image processing device 10 (an example of a device) according to an embodiment of the present invention is a user-use function guessing unit that guesses a desired process based on history information indicating a history of user operations and acquired device information. 37 (an example of the estimation means) and an operation assist determination unit 38 (an example of the determination means) for determining the display form of the operation screen (for example, the operation assist screen 700) for performing the operation assist according to the estimated processing. , And display the operation screen of the determined display form on the operation panel 305 (an example of the operation means). Further, the image processing device 10 changes the display form of the operation screen displayed on the operation panel 305 (for example, the selection screen 600) to the determined display form (for example, the operation assist screen 700). As a result, the image processing device 10 can improve the accuracy of the operation assist required by the user by changing the display form of the operation screen displayed on the operation panel 305 according to the real-time operation status of the user.

さらに、本発明の一実施形態に係る画像処理装置10(機器の一例)は、所定時間内における画面遷移の有無を判定する判定部41(判定手段の一例)を備える。そして、操作アシスト決定部38(決定手段の一例)は、判定部41によって画面遷移があると判定された場合、操作アシストを終了する。これにより、画像処理装置10は、画面操作に不慣れな操作習熟度が低いユーザには詳細な操作アシストを行い、画面操作に慣れた操作習熟度の高いユーザには操作アシストを行わないようにすることで、不要な操作アシストを抑制することができ、ユーザビリティが向上させることができる。 Further, the image processing device 10 (an example of an apparatus) according to an embodiment of the present invention includes a determination unit 41 (an example of a determination means) for determining the presence or absence of a screen transition within a predetermined time. Then, when the determination unit 41 determines that there is a screen transition, the operation assist determination unit 38 (an example of the determination means) ends the operation assist. As a result, the image processing device 10 provides detailed operation assist to a user who is unfamiliar with screen operation and has low operational proficiency, and does not provide operation assist to a user who is accustomed to screen operation and has high operational proficiency. As a result, unnecessary operation assist can be suppressed and usability can be improved.

また、本発明の一実施形態に係る画像処理装置10(機器の一例)は、所定の入力操作を行ったユーザの認証処理を行う認証部42(認証手段の一例)を備える。そして、ユーザ使用機能推測部37(推測手段の一例)は、認証されたユーザの権限に応じて、所望の処理を推測する。これにより、画像処理装置10は、ユーザ権限によって提供可能な操作アシスト機能を制限することができるので、操作アシスト処理に掛かる処理負担を低減させることができる。 Further, the image processing device 10 (an example of an apparatus) according to an embodiment of the present invention includes an authentication unit 42 (an example of an authentication means) that performs an authentication process of a user who has performed a predetermined input operation. Then, the user use function guessing unit 37 (an example of the guessing means) guesses a desired process according to the authority of the authenticated user. As a result, the image processing device 10 can limit the operation assist functions that can be provided by the user authority, so that the processing load on the operation assist process can be reduced.

さらに、本発明の一実施形態に係る画像処理装置10(機器の一例)において、ユーザ使用機能推測部37(推測手段の一例)は、取得された機器情報に基づいて、画像処理装置10の異常状態を推測し、操作アシスト決定部38(決定手段の一例)は、推測された異常状態に応じた操作アシストを行うための操作画面(例えば、操作アシスト画面700)の表示形態を決定する。これにより、画像処理装置10は、取得された機器情報に基づいて画像処理装置10のハードウエアの故障や不具合等の異常状態を判断することで、操作パネル305に対するユーザ操作の操作アシストのみでなく、画像処理装置10の異常解消アシストを行うことができる。 Further, in the image processing device 10 (an example of the device) according to the embodiment of the present invention, the user use function guessing unit 37 (an example of the guessing means) has an abnormality of the image processing device 10 based on the acquired device information. The operation assist determination unit 38 (an example of the determination means) estimates the state, and determines the display form of the operation screen (for example, the operation assist screen 700) for performing the operation assist according to the estimated abnormal state. As a result, the image processing device 10 determines not only the operation assist of the user operation on the operation panel 305 but also the operation assist of the user operation on the operation panel 305 by determining an abnormal state such as a hardware failure or malfunction of the image processing device 10 based on the acquired device information. , It is possible to assist the abnormality elimination of the image processing device 10.

●補足●
上記で説明した実施形態の各機能は、一または複数の処理回路によって実現することが可能である。ここで、本明細書における「処理回路」とは、電子回路により実装されるプロセッサのようにソフトウエアによって各機能を実行するようプログラミングされたプロセッサや、上記で説明した各機能を実行するよう設計されたASIC(Application Specific Integrated Circuit)、DSP(digital signal processor)、FPGA(field programmable gate array)や従来の回路モジュール等のデバイスを含むものとする。
● Supplement ●
Each function of the embodiment described above can be realized by one or more processing circuits. Here, the "processing circuit" in the present specification is a processor programmed to execute each function by software such as a processor implemented by an electronic circuit, or a processor designed to execute each function described above. It shall include devices such as ASICs (Application Specific Integrated Circuits), DSPs (digital signal processors), FPGAs (field programmable gate arrays), and conventional circuit modules.

また、上記で説明した実施形態の各種テーブルは、機械学習の学習効果によって生成されたものでもよく、関連づけられている各項目のデータを機械学習にて分類付けすることで、テーブルを使用しなくてもよい。ここで、機械学習とは、コンピュータに人のような学習能力を獲得させるための技術であり,コンピュータが,データ識別等の判断に必要なアルゴリズムを,事前に取り込まれる学習データから自律的に生成し,新たなデータについてこれを適用して予測を行う技術のことをいう。機械学習のための学習方法は、教師あり学習、教師なし学習、半教師学習、強化学習、深層学習のいずれかの方法でもよく、さらに、これらの学習方法を組み合わせた学習方法でもよく、機械学習のための学習方法は問わない。 Further, the various tables of the embodiment described above may be generated by the learning effect of machine learning, and by classifying the data of each related item by machine learning, the table is not used. You may. Here, machine learning is a technology for making a computer acquire learning ability like a human being, and the computer autonomously generates an algorithm necessary for judgment such as data identification from learning data taken in advance. However, it refers to a technology that applies this to new data to make predictions. The learning method for machine learning may be any of supervised learning, unsupervised learning, semi-supervised learning, enhanced learning, and deep learning, and may be a learning method that combines these learning methods. Machine learning It doesn't matter how you learn for.

これまで本発明の一実施形態に係る機器、表示制御方法およびプログラムについて説明してきたが、本発明は、上述した実施形態に限定されるものではなく、他の実施形態の追加、変更または削除等、当業者が想到することができる範囲内で変更することができ、いずれの態様においても本発明の作用・効果を奏する限り、本発明の範囲に含まれるものである。 Although the devices, display control methods, and programs according to one embodiment of the present invention have been described so far, the present invention is not limited to the above-described embodiments, and additions, changes, deletions, etc. of other embodiments, etc. , It can be changed within the range that can be conceived by those skilled in the art, and is included in the scope of the present invention as long as the action / effect of the present invention is exhibited in any of the embodiments.

10 画像処理装置(機器の一例)
30 操作部
33 表示制御部(表示制御手段の一例)
35 ユーザ操作検知部(ユーザ操作検知手段の一例)
36 機器情報取得部(機器情報取得手段の一例)
37 ユーザ使用機能推測部(推測手段の一例)
38 操作アシスト決定部(決定手段の一例)
50 本体部
305 操作パネル(操作手段の一例)
531 ADF(センサの一例)
533 人感センサ(センサの一例)
535 給紙トレイ(センサの一例)
600 選択画面(操作画面の一例)
700 操作アシスト画面(操作画面の一例)
800 レコメンド画面(操作画面の一例)
10 Image processing device (example of equipment)
30 Operation unit 33 Display control unit (an example of display control means)
35 User operation detection unit (an example of user operation detection means)
36 Equipment information acquisition unit (an example of equipment information acquisition means)
37 User-use function guessing unit (an example of guessing means)
38 Operation assist determination unit (example of determination means)
50 Main body 305 Operation panel (example of operation means)
531 ADF (an example of a sensor)
533 Motion sensor (example of sensor)
535 Paper tray (example of sensor)
600 selection screen (example of operation screen)
700 Operation assist screen (example of operation screen)
800 recommendation screen (example of operation screen)

特開2018−158529号公報JP-A-2018-158529

Claims (13)

所定の入力操作を受け付ける操作手段を備えた機器であって、
前記操作手段に対して受け付けられたユーザ操作を検知するユーザ操作検知手段と、
前記機器の特定の位置に配置されたセンサから出力されたセンサ信号を含む機器情報を取得する機器情報取得手段と、
検知された前記ユーザ操作の履歴を示す履歴情報および取得された前記機器情報に基づいて、当該機器に実行させる処理を選択可能な操作画面を前記操作手段に表示させる表示制御手段と、
を備える機器。
A device equipped with an operating means for accepting a predetermined input operation.
A user operation detecting means for detecting a user operation received for the operating means, and a user operation detecting means.
A device information acquisition means for acquiring device information including a sensor signal output from a sensor arranged at a specific position of the device, and a device information acquisition means.
A display control means for causing the operation means to display an operation screen on which a process to be executed by the device can be selected based on the history information indicating the detected history of the user operation and the acquired device information.
Equipment equipped with.
前記履歴情報および前記機器情報に基づいて、所望の処理を推測する推測手段と、
推測された処理に応じた操作アシストを行うための前記操作画面の表示形態を決定する決定手段と、を備え、
前記表示制御手段は、決定された表示形態の操作画面を前記操作手段に表示させる請求項1に記載の機器。
A guessing means for guessing a desired process based on the history information and the device information, and
It is provided with a determination means for determining the display form of the operation screen for performing operation assist according to the inferred processing.
The device according to claim 1, wherein the display control means causes the operation means to display an operation screen having a determined display form.
前記表示制御手段は、前記操作手段に表示されている前記操作画面の表示形態を、前記決定手段によって決定された表示形態に変更する請求項2に記載の機器。 The device according to claim 2, wherein the display control means changes the display form of the operation screen displayed on the operation means to the display form determined by the determination means. 前記履歴情報は、検知された前記ユーザ操作の操作間隔および所定時間内における操作回数の少なくともいずれかを含み、
前記推測手段は、前記操作間隔および前記操作回数の少なくともいずれかに基づいて、所望の処理を推測する請求項2または3に記載の機器。
The history information includes at least one of the detected operation interval of the user operation and the number of operations within a predetermined time.
The device according to claim 2 or 3, wherein the guessing means guesses a desired process based on at least one of the operation interval and the number of operations.
前記履歴情報は、検知された前記ユーザ操作に応じた特定の画面遷移を示す画面遷移情報を含み、
前記推測手段は、前記画面遷移情報に基づいて、所望の処理を推測する請求項2乃至4のいずれか一項に記載の機器。
The history information includes screen transition information indicating a specific screen transition according to the detected user operation.
The device according to any one of claims 2 to 4, wherein the guessing means guesses a desired process based on the screen transition information.
前記推測手段は、取得された前記機器情報に含まれるセンサ信号を送信した前記センサの配置位置に基づいて、所望の処理を推測する請求項2乃至5のいずれか一項に記載の機器。 The device according to any one of claims 2 to 5, wherein the guessing means guesses a desired process based on an arrangement position of the sensor that has transmitted a sensor signal included in the acquired device information. 前記推測手段は、取得された前記機器情報に含まれる前記センサ信号の変化に基づいて、所望の処理を推測する請求項6に記載の機器。 The device according to claim 6, wherein the guessing means guesses a desired process based on a change in the sensor signal included in the acquired device information. 請求項2乃至7のいずれか一項に記載の機器であって、更に、
所定時間内における画面遷移の有無を判定する判定手段を備え、
前記決定手段は、前記画面遷移があると判定された場合、前記操作アシストを終了する機器。
The device according to any one of claims 2 to 7, and further
Equipped with a determination means for determining the presence or absence of screen transition within a predetermined time
The determination means is a device that terminates the operation assist when it is determined that there is a screen transition.
請求項2乃至8のいずれか一項に記載の機器であって、更に、
前記入力操作を行ったユーザの認証処理を行う認証手段を備え、
前記推測手段は、認証されたユーザの権限に応じて、所望の処理を推測する機器。
The device according to any one of claims 2 to 8, further
An authentication means for performing an authentication process of the user who has performed the input operation is provided.
The guessing means is a device that guesses a desired process according to the authority of an authenticated user.
前記推測手段は、取得された前記機器情報に基づいて、前記機器の異常状態を推測し、
前記決定手段は、推測された前記異常状態に応じた操作アシストを行うための前記操作画面の表示形態を決定する請求項2乃至9のいずれか一項に記載の機器。
The guessing means guesses the abnormal state of the device based on the acquired device information, and estimates the abnormal state of the device.
The device according to any one of claims 2 to 9, wherein the determination means determines a display form of the operation screen for performing an operation assist according to the estimated abnormal state.
前記機器は、画像処理を実行可能な画像処理装置である請求項1乃至10のいずれか一項に記載の機器。 The device according to any one of claims 1 to 10, wherein the device is an image processing device capable of performing image processing. 所定の入力操作を受け付ける操作手段を備えた機器が実行する表示制御方法であって、
前記操作手段に対して受け付けられたユーザ操作を検知するユーザ操作検知ステップと、
前記機器の特定の位置に配置されたセンサからのセンサ信号を含む機器情報を取得する機器情報取得ステップと、
検知された前記ユーザ操作の履歴を示す履歴情報および取得された前記機器情報に基づいて、当該機器に実行させる処理を選択可能な操作画面を前記操作手段に表示させる表示制御ステップと、
を実行する表示制御方法。
A display control method executed by a device having an operation means for accepting a predetermined input operation.
A user operation detection step for detecting a user operation received for the operation means, and
A device information acquisition step for acquiring device information including a sensor signal from a sensor arranged at a specific position of the device, and
A display control step for causing the operation means to display an operation screen on which a process to be executed by the device can be selected based on the detected history information indicating the history of the user operation and the acquired device information.
Display control method to execute.
所定の入力操作を受け付ける操作手段を備えた機器に、
前記操作手段に対して受け付けられたユーザ操作を検知するユーザ操作検知ステップと、
前記機器の特定の位置に配置されたセンサからのセンサ信号を含む機器情報を取得する機器情報取得ステップと、
検知された前記ユーザ操作の履歴を示す履歴情報および取得された前記機器情報に基づいて、当該機器に実行させる処理を選択可能な操作画面を前記操作手段に表示させる表示制御ステップと、
を実行させるプログラム。
For devices equipped with an operating means that accepts predetermined input operations
A user operation detection step for detecting a user operation received for the operation means, and
A device information acquisition step for acquiring device information including a sensor signal from a sensor arranged at a specific position of the device, and
A display control step for causing the operation means to display an operation screen on which a process to be executed by the device can be selected based on the detected history information indicating the history of the user operation and the acquired device information.
A program that executes.
JP2019215155A 2019-11-28 2019-11-28 Equipment, display control method and program Active JP7459488B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019215155A JP7459488B2 (en) 2019-11-28 2019-11-28 Equipment, display control method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019215155A JP7459488B2 (en) 2019-11-28 2019-11-28 Equipment, display control method and program

Publications (2)

Publication Number Publication Date
JP2021086410A true JP2021086410A (en) 2021-06-03
JP7459488B2 JP7459488B2 (en) 2024-04-02

Family

ID=76087851

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019215155A Active JP7459488B2 (en) 2019-11-28 2019-11-28 Equipment, display control method and program

Country Status (1)

Country Link
JP (1) JP7459488B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112022002706T5 (en) 2021-05-21 2024-03-07 Denso Corporation Fuel cell system

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003134288A (en) * 2001-10-25 2003-05-09 Sharp Corp Operation guide device, operation guide method and recording medium
JP2007004513A (en) * 2005-06-24 2007-01-11 Sony Corp Reception device with help screen automatic display function, reception device for business, print kiosk device, help screen automatic display method and program
JP2016009901A (en) * 2014-06-23 2016-01-18 シャープ株式会社 Compound machine and display control method
JP2017073596A (en) * 2015-10-05 2017-04-13 キヤノン株式会社 Information processing device, method for controlling information processing device, and program
JP2018097473A (en) * 2016-12-09 2018-06-21 株式会社沖データ Information processor and information processing system
JP2019148842A (en) * 2018-02-26 2019-09-05 シャープ株式会社 Information processing apparatus, information processing system, control program, and control method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003134288A (en) * 2001-10-25 2003-05-09 Sharp Corp Operation guide device, operation guide method and recording medium
JP2007004513A (en) * 2005-06-24 2007-01-11 Sony Corp Reception device with help screen automatic display function, reception device for business, print kiosk device, help screen automatic display method and program
JP2016009901A (en) * 2014-06-23 2016-01-18 シャープ株式会社 Compound machine and display control method
JP2017073596A (en) * 2015-10-05 2017-04-13 キヤノン株式会社 Information processing device, method for controlling information processing device, and program
JP2018097473A (en) * 2016-12-09 2018-06-21 株式会社沖データ Information processor and information processing system
JP2019148842A (en) * 2018-02-26 2019-09-05 シャープ株式会社 Information processing apparatus, information processing system, control program, and control method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112022002706T5 (en) 2021-05-21 2024-03-07 Denso Corporation Fuel cell system

Also Published As

Publication number Publication date
JP7459488B2 (en) 2024-04-02

Similar Documents

Publication Publication Date Title
CN112422763B (en) Image processing apparatus, method for controlling the same, and storage medium
US10891092B2 (en) Image processing apparatus, control method therefor, and storage medium to present a setting content
JP2004228687A (en) Image forming system
US11102361B2 (en) Information processing apparatus and non-transitory computer readable medium
US11575801B2 (en) Printing method, information processing system, and non-transitory computer-readable storage medium storing control program
KR20220037981A (en) Image processing apparatus, storage medium, and control method
US11523006B2 (en) Information processing method, information processing apparatus, and storage medium
JP2021086410A (en) Device, display control method, and program
JP6758603B2 (en) Information processing equipment, image forming equipment and programs
JP6805721B2 (en) Information processing equipment and information processing programs
JP2017073596A (en) Information processing device, method for controlling information processing device, and program
JP6926599B2 (en) Function execution device, function execution method, and function execution program
KR101949717B1 (en) Method for managing programs in image forming apparatus and image forming apparatus by using the same
JP2011137921A (en) Screen switching method, image forming apparatus, information processor, and screen switching control system
JP2011086996A (en) Image processing multifunction machine
JP2016035648A (en) Electronic apparatus and information providing program
JP6747363B2 (en) Display image processing apparatus and image forming apparatus
US11949824B2 (en) Image forming apparatus and method for notifying detection of virus
US11593042B2 (en) Printing method, information processing system, and non-transitory computer-readable storage medium storing control program for displaying screen during processing
US11570320B2 (en) Printing method, information processing system, and non-transitory computer-readable storage medium storing control program
JP6460011B2 (en) Information processing apparatus and program
JP2017091198A (en) Display input device and image forming apparatus including the same
US10547754B2 (en) Information processing apparatus
JP2010194728A (en) Processing apparatus, and method of guiding operation procedure thereof
JP2010205058A (en) History storage device and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220914

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230502

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230628

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230912

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20231013

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231207

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20231215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240304

R150 Certificate of patent or registration of utility model

Ref document number: 7459488

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150