JP2019186766A - Image processing device, operation support method, and operation support program - Google Patents

Image processing device, operation support method, and operation support program Download PDF

Info

Publication number
JP2019186766A
JP2019186766A JP2018076360A JP2018076360A JP2019186766A JP 2019186766 A JP2019186766 A JP 2019186766A JP 2018076360 A JP2018076360 A JP 2018076360A JP 2018076360 A JP2018076360 A JP 2018076360A JP 2019186766 A JP2019186766 A JP 2019186766A
Authority
JP
Japan
Prior art keywords
image
unit
display
displayed
component
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018076360A
Other languages
Japanese (ja)
Inventor
小巻 由夫
Yoshio Komaki
由夫 小巻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2018076360A priority Critical patent/JP2019186766A/en
Publication of JP2019186766A publication Critical patent/JP2019186766A/en
Pending legal-status Critical Current

Links

Images

Abstract

To support the operation of an image processing device by using information displayed by a smart phone.SOLUTION: An image processing device can communicate with a smart phone and includes: a display unit that displays an operation screen: an image acquisition unit 51 that acquires a terminal image displayed by the smart phone from the smart phone; and an operation support unit 55 that changes the contents of the operation screen on the basis of information included in the acquired terminal image.SELECTED DRAWING: Figure 6

Description

この発明は、画像処理装置、操作支援方法および操作支援プログラムに関し、特に、外部の装置と無線接続が可能な画像処理装置、その画像処理装置で実行される操作支援方法および操作支援プログラムに関する。   The present invention relates to an image processing device, an operation support method, and an operation support program, and more particularly to an image processing device that can be wirelessly connected to an external device, an operation support method and an operation support program executed by the image processing device.

ユーザーが携帯するスマートフォン、PDA(Personal Digital Assistant)等の携帯装置は、ユーザーインターフェースが充実している。例えば、キーボードを用いた文字情報の入力に加えて、静止画、動画、音声による入力が可能となっている。また、携帯装置は、通信機能が充実しており、アドレス帳等の個人データを記憶している。   Mobile devices such as smartphones and PDAs (Personal Digital Assistants) carried by users have a rich user interface. For example, in addition to inputting character information using a keyboard, it is possible to input still images, moving images, and sounds. In addition, the portable device has a rich communication function and stores personal data such as an address book.

一方、MFP(Multi Function Peripheral)等の画像処理装置は、多機能化しており、操作が煩雑になってきている。このため、MFPを操作するユーザーを支援するために、携帯装置にMFPの操作を支援するためのアプリケーションプログラムをインストールすることが考えられる。   On the other hand, image processing apparatuses such as an MFP (Multi Function Peripheral) have become multifunctional, and operations have become complicated. For this reason, in order to support the user who operates the MFP, it is conceivable to install an application program for supporting the operation of the MFP in the portable device.

しかしながら、MFPと携帯装置とは別体の装置なので、携帯装置でMFPの操作を支援するための情報をディスプレイに表示等して出力したとしても、ユーザーが、その表示に基づいて、MFPで表示される操作画面に対する操作を直ちに理解することができない場合があるといった問題がある。   However, since the MFP and the portable device are separate devices, even if the information for supporting the operation of the MFP is displayed on the display and output by the portable device, the user displays the information on the MFP based on the display. There is a problem that the user cannot immediately understand the operation on the operation screen.

携帯装置を携帯するユーザーを支援する技術として、特開2016−134042号公報には、MFPで原稿を読み取って得られるデータを、携帯装置に記憶されたアドレス帳で定められた宛先に送信する技術が記載されている。しかしながら、特開2016−134042号公報に記載の技術は、携帯装置とMFPとの間で通信するための手順および情報を予め取決めておく必要がある。このため、MFPとの間の連携の手順が定められた専用のアプリケーションプログラムがインストールされた携帯装置を用いなければならず、予め定められた機能でしか連携することができないといった問題がある。
特開2016−134042号公報
As a technology for supporting a user who carries a portable device, Japanese Patent Application Laid-Open No. 2006-134042 discloses a technology for transmitting data obtained by reading an original with an MFP to a destination defined in an address book stored in the portable device. Is described. However, the technique described in Japanese Patent Application Laid-Open No. 2006-134042 requires that a procedure and information for communicating between the portable device and the MFP be determined in advance. For this reason, there is a problem that it is necessary to use a portable device in which a dedicated application program in which a procedure for cooperation with the MFP is defined is installed, and cooperation can be performed only with a predetermined function.
Japanese Patent Laying-Open No. 2006-134042

この発明は上述した問題点を解決するためになされたもので、この発明の目的の1つは、携帯装置が表示する情報を用いて操作を支援することが可能な画像処理装置を提供することである。   The present invention has been made to solve the above-described problems, and one object of the present invention is to provide an image processing apparatus capable of supporting an operation using information displayed by a portable device. It is.

この発明の他の目的は、携帯装置が表示する情報を用いて画像処理装置の操作を支援することが可能な操作支援方法を提供することである。   Another object of the present invention is to provide an operation support method capable of supporting an operation of an image processing apparatus using information displayed by a portable device.

この発明の他の目的は、携帯装置が表示する情報を用いて画像処理装置の操作を支援することが可能な操作支援プログラムを提供することである。   Another object of the present invention is to provide an operation support program capable of supporting an operation of an image processing apparatus using information displayed by a portable device.

上述した目的を達成するためにこの発明のある局面によれば、画像処理装置は、携帯装置と通信可能な画像処理装置であって、操作画面を表示する表示手段と、携帯装置から携帯装置により表示されている端末画像を取得する画像取得手段と、取得された端末画像に含まれる情報に基づいて、操作画面の内容を変更する操作支援手段と、を備える。   In order to achieve the above-described object, according to one aspect of the present invention, an image processing apparatus is an image processing apparatus capable of communicating with a portable device, and includes a display unit that displays an operation screen, and the portable device to the portable device. Image acquisition means for acquiring the terminal image being displayed, and operation support means for changing the content of the operation screen based on information included in the acquired terminal image.

この局面に従えば、携帯装置から取得された端末画像に含まれる情報に操作画面の内容を合わせることができる。その結果、携帯装置が表示する情報を用いて操作を支援することが可能な画像処理装置を提供することができる。   According to this aspect, the content of the operation screen can be matched with the information included in the terminal image acquired from the portable device. As a result, it is possible to provide an image processing apparatus capable of supporting an operation using information displayed by the portable device.

好ましくは、操作画面は、ユーザーにより入力される操作を受け付けるための表示部品を含み、操作支援手段は、端末画像に含まれる情報に基づいて、ユーザーにより入力される予定の操作の対象となる表示部品を対象部品として予測する予測手段と、予測された対象部品を強調して表示する強調表示手段と、を含む。   Preferably, the operation screen includes a display component for accepting an operation input by the user, and the operation support means displays a target of an operation scheduled to be input by the user based on information included in the terminal image. Prediction means for predicting a part as a target part; and highlighting means for highlighting and displaying the predicted target part.

この局面に従えば、端末画像を解析した結果に基づいて、ユーザーにより入力される予定の操作の対象となる表示部品を対象部品として予測し、対象部品に予測された表示部品を強調して表示する。このため、携帯装置で案内される操作を通知することができる。   According to this aspect, based on the result of analyzing the terminal image, the display component that is the target of the operation that is scheduled to be input by the user is predicted as the target component, and the display component predicted by the target component is highlighted. To do. For this reason, the operation guided by the portable device can be notified.

好ましくは、予測手段は、端末画像に含まれる文字情報に基づいて、表示部品を予測する。   Preferably, the prediction means predicts the display component based on character information included in the terminal image.

この局面に従えば、端末画像に含まれる文字情報に基づいて、ユーザーにより入力される予定の操作の対象となる表示部品を予測するので、表示部品を予測する精度を高めることができる。   If this aspect is followed, since the display component used as the object of the operation planned to be input by the user is predicted based on the character information included in the terminal image, the accuracy of predicting the display component can be improved.

好ましくは、予測手段は、文字情報に含まれる文字列を、表示部品に対して予め関連付けられた予約語と比較する。   Preferably, the predicting unit compares the character string included in the character information with a reserved word associated with the display component in advance.

この局面に従えば、文字情報に含まれる文字列を、表示部品に予め関連付けられた予約語と比較するので、表示部品を予測する精度を高めることができる。   If this situation is followed, since the character string contained in character information is compared with the reserved word previously linked | related with the display component, the precision which estimates a display component can be improved.

好ましくは、予測手段は、文字情報に含まれる複数の文字列のうちから出現する頻度の高い文字列に基づいて、表示部品を予測する。   Preferably, the predicting unit predicts the display component based on a character string that frequently appears from a plurality of character strings included in the character information.

この局面に従えば、文字情報に含まれる複数の文字列のうちから出現する頻度の高い文字列に基づいて、表示部品を予測するので、表示部品を予測する精度を高めることができる。   According to this aspect, since the display component is predicted based on a character string that frequently appears from among a plurality of character strings included in the character information, the accuracy of predicting the display component can be improved.

好ましくは、予測手段は、端末画像に含まれる画像と類似する表示部品を対象部品として予測する。   Preferably, the prediction unit predicts a display component similar to an image included in the terminal image as a target component.

この局面に従えば、端末画像に含まれる画像と類似する表示部品を対象部品として予測するので、表示部品を予測する精度を高めることができる。   According to this aspect, since a display component similar to the image included in the terminal image is predicted as the target component, the accuracy of predicting the display component can be increased.

好ましくは、予測手段は、端末画像が複数の表示部品とそれぞれ類似する複数の画像を含む場合、複数の画像のうち頻度の高い画像と類似する表示部品を対象部品として予測する。   Preferably, when the terminal image includes a plurality of images that are respectively similar to the plurality of display components, the prediction unit predicts a display component that is similar to a high-frequency image among the plurality of images as a target component.

この局面に従えば、端末画像が複数の表示部品とそれぞれ類似する複数の類似画像を含む場合、頻度の高い類似画像を抽出するので、表示部品を予測する精度を高めることができる。   According to this aspect, when the terminal image includes a plurality of similar images that are respectively similar to the plurality of display components, a similar image having a high frequency is extracted, so that the accuracy of predicting the display components can be improved.

好ましくは、強調表示手段は、予測された操作を受け付けるための表示部品の近傍に端末画像を表示する。   Preferably, the highlighting means displays the terminal image in the vicinity of the display component for receiving the predicted operation.

この局面に従えば、予測された表示部品の近傍に端末画像が表示されるので、予測された表示部品の操作画面における位置を通知することができる。   According to this aspect, since the terminal image is displayed in the vicinity of the predicted display component, the position of the predicted display component on the operation screen can be notified.

好ましくは、強調表示手段は、対象部品が予測される前の段階で表示手段に操作画面と端末画像とが表示されている場合、端末画像を表示する位置を移動させる。   Preferably, when the operation screen and the terminal image are displayed on the display unit before the target component is predicted, the highlighting unit moves the position where the terminal image is displayed.

この局面に従えば、対象部品が予測される前の段階で操作画面と端末画像とが並んで表示されている場合、端末画像を表示する位置を移動させるので、端末画像の移動後の位置で、予測された表示部品を通知することができる。   According to this aspect, when the operation screen and the terminal image are displayed side by side before the target component is predicted, the position where the terminal image is displayed is moved. The predicted display component can be notified.

好ましくは、強調表示手段は、対象部品に予測された表示部品を、他の表示部品よりも優先される位置に移動させる。   Preferably, the highlighting means moves the display component predicted as the target component to a position prioritized over other display components.

この局面に従えば、予測された表示部品を、他の表示部品よりも優先される位置に移動させるので、操作画面における優先される位置で、表示部品を通知することができる。   According to this aspect, since the predicted display component is moved to a position that is prioritized over other display components, the display component can be notified at the priority position on the operation screen.

好ましくは、表示手段は、操作画面に加えて端末画像を表示し、強調表示手段は、対象部品に予測された表示部品と、端末画像に含まれ、対象部品を予測する元になった元情報が表示される領域とを強調表示する。   Preferably, the display unit displays the terminal image in addition to the operation screen, and the highlighting unit includes the display component predicted as the target component and the original information included in the terminal image and from which the target component is predicted. Highlight the area where is displayed.

この局面に従えば、対象部品に予測された表示部品と、端末画像に含まれ、表示部品を予測する元になった元情報が表示される領域とを強調表示するので、表示部品と元情報との関係を通知することができる。   According to this aspect, since the display component predicted as the target component and the area where the original information included in the terminal image and from which the display component is predicted are displayed are highlighted, the display component and the original information are displayed. Can be notified of the relationship.

好ましくは、強調表示手段は、対象部品に予測された表示部品と、元情報が表示される領域とを関連付ける指示画像を表示手段に表示する。   Preferably, the highlighting means displays on the display means an instruction image that associates the display part predicted as the target part with the area where the original information is displayed.

この局面に従えば、対象部品に予測された表示部品と元情報が表示される領域とを関連付ける指示画像が表示されるので、表示部品をユーザーに通知するとともに、表示部品に関連する元情報を通知することができる。   According to this aspect, an instruction image is displayed that associates the display component predicted to the target component with the area where the original information is displayed. Therefore, the display component is notified to the user, and the original information related to the display component is displayed. You can be notified.

好ましくは、強調表示手段は、表示部品が対象部品として予測されない場合は、端末画像を表示しない、または、端末画像が表示されている場合は端末画像のサイズを縮小する。   Preferably, the highlighting means does not display the terminal image when the display component is not predicted as the target component, or reduces the size of the terminal image when the terminal image is displayed.

この局面に従えば、表示部品が予測されない場合は、端末画像が表示されず、また、端末画像が表示されている場合は端末画像のサイズが縮小されるので、端末画像に表示部品に関連する情報が存在しないことを通知することができる。   According to this aspect, when the display component is not predicted, the terminal image is not displayed, and when the terminal image is displayed, the size of the terminal image is reduced, so that the terminal image is related to the display component. It can be notified that no information exists.

この発明の他の局面によれば、操作支援方法は、携帯装置から携帯装置により表示されている端末画像を取得する画像取得ステップと、取得された端末画像に含まれる情報に基づいて、表示手段に表示されている操作画面の内容を変更する操作支援ステップと、を画像処理装置に実行させる。   According to another aspect of the present invention, the operation support method includes an image acquisition step of acquiring a terminal image displayed by the portable device from the portable device, and display means based on information included in the acquired terminal image. The image processing apparatus executes an operation support step for changing the content of the operation screen displayed on the screen.

この局面に従えば、携帯装置が表示する情報を用いて画像処理装置の操作を支援することが可能な操作支援方法を提供することができる。   If this aspect is followed, the operation assistance method which can assist operation of an image processing apparatus using the information which a portable apparatus displays can be provided.

この発明のさらに他の局面によれば、操作支援プログラムは、画像処理装置を制御するコンピューターで実行される操作支援プログラムであって、携帯装置から携帯装置により表示されている端末画像を取得する画像取得ステップと、取得された端末画像に含まれる情報に基づいて、表示手段に表示されている操作画面の内容を変更する操作支援ステップと、をコンピューターに実行させる。   According to still another aspect of the present invention, the operation support program is an operation support program executed by a computer that controls the image processing apparatus, and an image for acquiring a terminal image displayed by the mobile apparatus from the mobile apparatus. Based on the information included in the acquired terminal image, the acquisition step and the operation support step of changing the content of the operation screen displayed on the display means are executed by the computer.

この局面に従えば、携帯装置が表示する情報を用いて画像処理装置の操作を支援することが可能な操作支援方法を提供することができる。   If this aspect is followed, the operation assistance method which can assist operation of an image processing apparatus using the information which a portable apparatus displays can be provided.

本発明の実施の形態における情報システムの全体概要の一例を示す図である。It is a figure showing an example of the whole outline of an information system in an embodiment of the invention. 本実施の形態におけるMFPの外観を示す斜視図である。1 is a perspective view showing an external appearance of an MFP in the present embodiment. 本実施の形態におけるMFPのハードウェア構成の一例を示すブロック図である。2 is a block diagram illustrating an example of a hardware configuration of an MFP according to the present embodiment. FIG. NFC通信部の詳細な構成の一例を示す図である。It is a figure which shows an example of a detailed structure of an NFC communication part. 操作パネルの平面図である。It is a top view of an operation panel. 本実施の形態におけるスマートフォンのハードウェア構成の概要を示すブロック図である。It is a block diagram which shows the outline | summary of the hardware constitutions of the smart phone in this Embodiment. 本実施の形態におけるMFPが備えるCPUの機能の一例を示すブロック図である。3 is a block diagram showing an example of functions of a CPU provided in the MFP according to the present embodiment. FIG. 操作支援処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of an operation assistance process. 予測処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of a prediction process. 操作画面変更処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of an operation screen change process. 操作受付処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of an operation reception process. MFPに表示される画像の一例を示す第1の図である。FIG. 3 is a first diagram illustrating an example of an image displayed on an MFP. MFPに表示される画像の一例を示す第2の図である。FIG. 10 is a second diagram illustrating an example of an image displayed on the MFP. MFPに表示される画像の一例を示す第3の図である。FIG. 10 is a third diagram illustrating an example of an image displayed on the MFP. MFPに表示される画像の一例を示す第4の図である。FIG. 10 is a fourth diagram illustrating an example of an image displayed on the MFP. MFPに表示される画像の一例を示す第5の図である。FIG. 10 is a fifth diagram illustrating an example of an image displayed on the MFP. MFPに表示される画像の一例を示す第6の図である。FIG. 10 is a sixth diagram illustrating an example of an image displayed on the MFP.

以下、本発明の実施の形態について図面を参照して説明する。以下の説明では同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがってそれらについての詳細な説明は繰り返さない。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, the same parts are denoted by the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.

図1は、本発明の実施の形態における情報システムの全体概要の一例を示す図である。図1を参照して、情報システム1は、MFP(Multi Function Peripheral)100と、スマートフォン200と、を含む。   FIG. 1 is a diagram showing an example of an overall outline of an information system according to an embodiment of the present invention. Referring to FIG. 1, information system 1 includes an MFP (Multi Function Peripheral) 100 and a smartphone 200.

スマートフォン200は、携帯装置の一例であり、ユーザーにより携帯されて使用される。スマートフォン200のハードウェア構成および機能は周知なので、ここでは説明を繰り返さない。   The smartphone 200 is an example of a portable device, and is used by being carried by a user. Since the hardware configuration and functions of smartphone 200 are well known, description thereof will not be repeated here.

MFP100は、画像処理装置の一例であり、原稿を読み取るための原稿読取機能、画像データに基づいて紙などの記録媒体に画像を形成するための画像形成機能およびファクシミリデータを送受信するファクシミリ送受信機能を備えている。   MFP 100 is an example of an image processing apparatus, and has a document reading function for reading a document, an image forming function for forming an image on a recording medium such as paper based on image data, and a facsimile transmission / reception function for transmitting / receiving facsimile data. I have.

無線局5およびMFP100それぞれは、ネットワーク3に接続される。ネットワーク3は、ローカルエリアネットワーク(LAN)であり、接続形態は有線または無線を問わない。またネットワーク3は、LANに限らず、公衆交換電話網(Public Switched Telephone Networks)を用いたネットワーク等であってもよい。さらに、ネットワーク3は、インターネットなどのワイドエリアネットワーク(WAN)であってもよい。   Each of the wireless station 5 and the MFP 100 is connected to the network 3. The network 3 is a local area network (LAN), and the connection form may be wired or wireless. In addition, the network 3 is not limited to a LAN, and may be a network using a public switched telephone network (Public Switched Telephone Networks). Further, the network 3 may be a wide area network (WAN) such as the Internet.

スマートフォン200は、無線LAN機能を有し、無線局5と通信可能である。無線局5は、ネットワーク3の中継装置であり、無線LANを用いた通信機能を備えたスマートフォン200と通信して、スマートフォン200をネットワーク3に接続する。このため、スマートフォン200は、無線局5を介してMFP100と通信可能である。ネットワーク3は、さらに、インターネットに接続されてもよい。この場合、スマートフォン200およびMFP100それぞれは、ネットワーク3を介してインターネットに接続されたコンピューターと互いに通信可能である。   The smartphone 200 has a wireless LAN function and can communicate with the wireless station 5. The wireless station 5 is a relay device of the network 3, communicates with the smartphone 200 having a communication function using a wireless LAN, and connects the smartphone 200 to the network 3. For this reason, the smartphone 200 can communicate with the MFP 100 via the wireless station 5. The network 3 may be further connected to the Internet. In this case, each of the smartphone 200 and the MFP 100 can communicate with a computer connected to the Internet via the network 3.

さらに、MFP100、スマートフォン200それぞれは、近距離で無線通信する機能を有し、相手の装置が所定の範囲内となる場合に互いに1対1で通信可能である。   Furthermore, each of MFP 100 and smartphone 200 has a function of performing wireless communication at a short distance, and can communicate with each other on a one-to-one basis when the counterpart device is within a predetermined range.

図2は、本実施の形態におけるMFPの外観を示す斜視図である。図3は、本実施の形態におけるMFPのハードウェア構成の一例を示すブロック図である。図2および図3を参照して、MFP100は、メイン回路110と、原稿を読み取るための原稿読取部130と、原稿を原稿読取部130に搬送するための自動原稿搬送装置120と、原稿読取部130が原稿を読み取って出力する画像データに基づいて用紙等に画像を形成するための画像形成部140と、画像形成部140に用紙を供給するための給紙部150と、画像が形成された用紙を処理する後処理部155と、ユーザーインターフェースとしての操作パネル160とを含む。   FIG. 2 is a perspective view showing an appearance of the MFP according to the present embodiment. FIG. 3 is a block diagram illustrating an example of the hardware configuration of the MFP according to the present embodiment. 2 and 3, MFP 100 includes a main circuit 110, a document reading unit 130 for reading a document, an automatic document transport device 120 for transporting a document to document reading unit 130, and a document reading unit. An image is formed by an image forming unit 140 for forming an image on a sheet or the like based on image data output by the manuscript 130 reading and outputting a document, a paper feeding unit 150 for supplying the image to the image forming unit 140, and an image. A post-processing unit 155 that processes paper and an operation panel 160 as a user interface are included.

後処理部155は、画像形成部140により画像が形成された1以上の用紙を並び替えて排紙するソート処理、パンチ穴加工するパンチ処理、ステープル針を打ち込むステープル処理を実行する。   The post-processing unit 155 executes a sorting process for sorting and discharging one or more sheets on which images are formed by the image forming unit 140, a punching process for punch hole processing, and a staple process for driving staple needles.

メイン回路110は、CPU111と、CPU111と接続された通信インターフェース(I/F)部112、ROM113、RAM114、ハードディスクドライブ(HDD)115、ファクシミリ部116、外部記憶装置117およびNFC通信部119と、を含む。CPU111は、自動原稿搬送装置120、原稿読取部130、画像形成部140、給紙部150、後処理部155および操作パネル160と接続され、MFP100の全体を制御する。   The main circuit 110 includes a CPU 111, a communication interface (I / F) unit 112, a ROM 113, a RAM 114, a hard disk drive (HDD) 115, a facsimile unit 116, an external storage device 117, and an NFC communication unit 119 connected to the CPU 111. Including. CPU 111 is connected to automatic document feeder 120, document reading unit 130, image forming unit 140, paper feeding unit 150, post-processing unit 155, and operation panel 160, and controls the entire MFP 100.

ROM113は、CPU111が実行するプログラム、またはそのプログラムを実行するために必要なデータを記憶する。RAM114は、CPU111がプログラムを実行する際の作業領域として用いられる。また、RAM114は、原稿読取部130から連続的に送られてくる読取データ(画像データ)を一時的に記憶する。   The ROM 113 stores a program executed by the CPU 111 or data necessary for executing the program. The RAM 114 is used as a work area when the CPU 111 executes a program. The RAM 114 temporarily stores read data (image data) continuously sent from the document reading unit 130.

操作パネル160は、MFP100の上面に設けられ、表示部161と操作部163とを含む。表示部161は、液晶表示装置(LCD)、有機ELD(Electro−Luminescence Display)等の表示装置であり、ユーザーに対する指示メニューや取得した画像データに関する情報等を表示する。操作部163は、複数のキーからなるハードキー部167を備え、キーに対応するユーザーの操作による各種の指示、文字、数字などのデータの入力を受け付ける。操作部163は、表示部161上に設けられたタッチパネル165をさらに含む。   Operation panel 160 is provided on the upper surface of MFP 100 and includes a display unit 161 and an operation unit 163. The display unit 161 is a display device such as a liquid crystal display (LCD) or an organic ELD (Electro-Luminescence Display), and displays an instruction menu for the user, information about acquired image data, and the like. The operation unit 163 includes a hard key unit 167 including a plurality of keys, and accepts input of various instructions, data such as characters and numbers by user operations corresponding to the keys. The operation unit 163 further includes a touch panel 165 provided on the display unit 161.

HDD115は、大容量記憶装置である。通信I/F部112は、MFP100をネットワーク3に接続するためのインターフェースである。CPU111は、通信I/F部112を介して、スマートフォン200との間で通信し、データを送受信する。また、通信I/F部112は、ネットワーク3を介してインターネットに接続されたコンピューターと通信が可能である。   The HDD 115 is a mass storage device. Communication I / F unit 112 is an interface for connecting MFP 100 to network 3. The CPU 111 communicates with the smartphone 200 via the communication I / F unit 112 to transmit / receive data. The communication I / F unit 112 can communicate with a computer connected to the Internet via the network 3.

ファクシミリ部116は、公衆交換電話網(PSTN)に接続され、PSTNにファクシミリデータを送信する、またはPSTNからファクシミリデータを受信する。ファクシミリ部116は、受信したファクシミリデータを、HDD115に記憶する、または画像形成部140に出力する。画像形成部140は、ファクシミリ部116により受信されたファクシミリデータを用紙にプリントする。また、ファクシミリ部116は、HDD115に記憶されたデータをファクシミリデータに変換して、PSTNに接続されたファクシミリ装置に送信する。   The facsimile unit 116 is connected to the public switched telephone network (PSTN) and transmits facsimile data to the PSTN or receives facsimile data from the PSTN. The facsimile unit 116 stores the received facsimile data in the HDD 115 or outputs it to the image forming unit 140. The image forming unit 140 prints the facsimile data received by the facsimile unit 116 on a sheet. Further, the facsimile unit 116 converts the data stored in the HDD 115 into facsimile data, and transmits the facsimile data to a facsimile machine connected to the PSTN.

外部記憶装置117は、CD−ROM(Compact Disk ROM)118が装着される。CPU111は、外部記憶装置117を介してCD−ROM118にアクセス可能である。CPU111は、外部記憶装置117に装着されたCD−ROM118に記録されたプログラムをRAM114にロードして実行する。なお、CPU111が実行するプログラムを記憶する媒体としては、CD−ROM118に限られず、光ディスク(MO(Magnetic Optical Disc)/MD(Mini Disc)/DVD(Digital Versatile Disc))、ICカード、光カード、マスクROM、EPROM(Erasable Programmable ROM)等の半導体メモリであってもよい。   The external storage device 117 is loaded with a CD-ROM (Compact Disk ROM) 118. The CPU 111 can access the CD-ROM 118 via the external storage device 117. The CPU 111 loads the program recorded on the CD-ROM 118 attached to the external storage device 117 to the RAM 114 and executes it. The medium for storing the program executed by the CPU 111 is not limited to the CD-ROM 118, but an optical disc (MO (Magnetic Optical Disc) / MD (Mini Disc) / DVD (Digital Versatile Disc)), IC card, optical card, It may be a semiconductor memory such as a mask ROM or EPROM (Erasable Programmable ROM).

また、CPU111が実行するプログラムは、CD−ROM118に記録されたプログラムに限られず、HDD115に記憶されたプログラムをRAM114にロードして実行するようにしてもよい。この場合、ネットワーク3に接続された他のコンピューターが、MFP100のHDD115に記憶されたプログラムを書換える、または、新たなプログラムを追加して書き込むようにしてもよい。さらに、MFP100が、ネットワーク3に接続された他のコンピューターからプログラムをダウンロードして、そのプログラムをHDD115に記憶するようにしてもよい。ここでいうプログラムは、CPU111が直接実行可能なプログラムだけでなく、ソースプログラム、圧縮処理されたプログラム、暗号化されたプログラム等を含む。   Further, the program executed by the CPU 111 is not limited to the program recorded on the CD-ROM 118, and the program stored in the HDD 115 may be loaded into the RAM 114 and executed. In this case, another computer connected to the network 3 may rewrite the program stored in the HDD 115 of the MFP 100 or may add a new program and write it. Further, MFP 100 may download a program from another computer connected to network 3 and store the program in HDD 115. The program here includes not only a program directly executable by the CPU 111 but also a source program, a compressed program, an encrypted program, and the like.

図4は、NFC通信部の詳細な構成の一例を示す図である。図4を参照して、NFC通信部119は、NFC通信制御部173と、NFCアンテナ171と、検出回路175と、を含む。NFC通信制御部173は、NFCアンテナ171と接続される。NFC通信制御部173は、CPU111により制御され、NFC(Near Field Communication)の近距離無線通信方式で外部の装置、例えば、スマートフォン200と無線により通信する。NFC通信部119が通信可能な距離は、数cmである。NFCアンテナ171は、表示部161の表示面の上方または下方の面に配置される。具体的には、NFCアンテナ171は、表示部161の下方に配置された基板に形成されてもよく、表示部161の表示面よりも上に配置されてもよい。NFCアンテナ171は、表示部161の表示面よりも上に配置される場合、透明な材料によって形成される。また、表示部161の表示面よりも上に配置される場合、表示部161とタッチパネル165との間に配置されてもよいし、タッチパネル165の上に配置されてもよい。   FIG. 4 is a diagram illustrating an example of a detailed configuration of the NFC communication unit. Referring to FIG. 4, NFC communication unit 119 includes an NFC communication control unit 173, an NFC antenna 171, and a detection circuit 175. The NFC communication control unit 173 is connected to the NFC antenna 171. The NFC communication control unit 173 is controlled by the CPU 111, and communicates with an external device, for example, the smartphone 200 wirelessly by an NFC (Near Field Communication) near field communication method. The distance that the NFC communication unit 119 can communicate is several centimeters. The NFC antenna 171 is disposed on a surface above or below the display surface of the display unit 161. Specifically, the NFC antenna 171 may be formed on a substrate disposed below the display unit 161 or may be disposed above the display surface of the display unit 161. When the NFC antenna 171 is disposed above the display surface of the display unit 161, the NFC antenna 171 is formed of a transparent material. Further, when the display unit 161 is disposed above the display surface, the display unit 161 may be disposed between the display unit 161 and the touch panel 165 or may be disposed on the touch panel 165.

検出回路175は、NFCアンテナ171が、NFC通信部119が通信するために予め定められた周波数の電波を受信する場合に、CPU111に外部の装置と通信可能になったことを示す信号を出力する。   When the NFC antenna 171 receives a radio wave having a predetermined frequency for the NFC communication unit 119 to communicate, the detection circuit 175 outputs a signal indicating that communication with an external device is possible to the CPU 111. .

図5は、操作パネルの平面図である。図5を参照して、操作パネル160は、表示部161と、タッチパネル165と、ハードキー部167と、を含む。表示部161の表示面と、タッチパネル165の検出面とは重ねて配置される。アンテナ領域171Aは、表示部161の表示面中でNFCアンテナ171と重なる領域である。   FIG. 5 is a plan view of the operation panel. Referring to FIG. 5, operation panel 160 includes a display unit 161, a touch panel 165, and a hard key unit 167. The display surface of the display unit 161 and the detection surface of the touch panel 165 are arranged so as to overlap each other. The antenna region 171A is a region overlapping with the NFC antenna 171 in the display surface of the display unit 161.

ハードキー部167は、複数のハードキーを含む。ハードキーは、接点スイッチであり、CPU111と接続される。ハードキーは、ユーザーにより押下されていない状態でOFFであり、ユーザーにより押下されるとONになる。   Hard key portion 167 includes a plurality of hard keys. The hard key is a contact switch and is connected to the CPU 111. The hard key is OFF when not pressed by the user, and is turned ON when pressed by the user.

図6は、本実施の形態におけるスマートフォンのハードウェア構成の概要を示すブロック図である。図6を参照して、本実施の形態におけるスマートフォン200は、スマートフォン200の全体を制御するためのCPU201と、カメラ202と、データを不揮発的に記憶するフラッシュメモリ203と、通話部205と接続された無線通信部204と、情報を表示する表示部206と、ユーザーの操作を受け付ける操作部207と、無線LANI/F208と、NFC通信部209と、外部記憶装置211と、を含む。   FIG. 6 is a block diagram illustrating an outline of the hardware configuration of the smartphone according to the present embodiment. Referring to FIG. 6, smartphone 200 in the present embodiment is connected to CPU 201 for controlling entire smartphone 200, camera 202, flash memory 203 for storing data in a nonvolatile manner, and call unit 205. A wireless communication unit 204, a display unit 206 for displaying information, an operation unit 207 for accepting user operations, a wireless LAN I / F 208, an NFC communication unit 209, and an external storage device 211.

表示部206は、液晶表示装置(LCD)、有機ELD等の表示装置であり、ユーザーに対する指示メニューや取得した画像データに関する情報等を表示する。操作部207は、メインキー207Aと、タッチパネル207Bとを備える。また、ユーザーが、表示部206の表示面を指示する場合、操作部207は、タッチパネル207Bにより検出される表示面の位置をCPU201に出力する。CPU201は、タッチパネル207Bにより検出された位置に基づいて、表示部206に表示されている画面中でユーザーにより指示された位置を検出する。CPU201は、表示部206に表示されている画面と、タッチパネル207Bによる検出された位置とに基づいて、ユーザーの操作による各種の指示、文字、数字などのデータの入力を受け付ける。例えば、表示部206にテンキーの画像を含む画面を表示する場合には、タッチパネル207Bによる検出された位置に表示されたキーに対応する数字を受け付ける。   The display unit 206 is a display device such as a liquid crystal display (LCD) or an organic ELD, and displays an instruction menu for a user, information about acquired image data, and the like. The operation unit 207 includes a main key 207A and a touch panel 207B. When the user instructs the display surface of the display unit 206, the operation unit 207 outputs the position of the display surface detected by the touch panel 207B to the CPU 201. Based on the position detected by the touch panel 207B, the CPU 201 detects a position designated by the user in the screen displayed on the display unit 206. Based on the screen displayed on the display unit 206 and the position detected by the touch panel 207 </ b> B, the CPU 201 accepts input of various instructions, data such as characters and numbers by user operations. For example, when a screen including a numeric keypad image is displayed on the display unit 206, a number corresponding to the key displayed at the position detected by the touch panel 207B is received.

カメラ202は、レンズおよび光電変換素子を備え、レンズで集光した光を光電変換素子に結像し、光電変換素子は受光した光を光電変換して画像データをCPU201に出力する。光電変換素子は、CMOS(Complementary Metal Oxide Semiconductor)センサー、CCD(Charge Coupled Device)センサー等である。   The camera 202 includes a lens and a photoelectric conversion element. The light focused by the lens is imaged on the photoelectric conversion element. The photoelectric conversion element photoelectrically converts the received light and outputs image data to the CPU 201. A photoelectric conversion element is a CMOS (Complementary Metal Oxide Semiconductor) sensor, a CCD (Charge Coupled Device) sensor, or the like.

無線通信部204は、電話通信網に接続された携帯電話用基地局と無線通信する。無線通信部204は、スマートフォン200を電話通信網に接続し、通話部205を用いた通話を可能とする。無線通信部204は、携帯電話用基地局から受信した無線信号を復調した音声信号を復号して通話部205に出力する。また、無線通信部204は、通話部205から入力される音声を符号化し、携帯電話用基地局に送信する。通話部205は、マイクロフォンおよびスピーカーを備え、無線通信部204から入力される音声をスピーカーから出力し、マイクから入力される音声を無線通信部204に出力する。さらに、無線通信部204は、CPU201により制御され、スマートフォン200を電子メールサーバーに接続し、電子メールを送受信する。   The wireless communication unit 204 performs wireless communication with a mobile phone base station connected to a telephone communication network. The wireless communication unit 204 connects the smartphone 200 to the telephone communication network and enables a call using the call unit 205. The radio communication unit 204 decodes a voice signal obtained by demodulating the radio signal received from the mobile phone base station and outputs the decoded signal to the call unit 205. Further, the wireless communication unit 204 encodes the voice input from the call unit 205 and transmits it to the mobile phone base station. The call unit 205 includes a microphone and a speaker, and outputs sound input from the wireless communication unit 204 from the speaker, and outputs sound input from the microphone to the wireless communication unit 204. Further, the wireless communication unit 204 is controlled by the CPU 201, connects the smartphone 200 to an email server, and transmits and receives emails.

無線LANI/F208は、無線局5と通信し、スマートフォン200をネットワーク3に接続するためのインターフェースである。スマートフォン200に、MFP100のIP(Internet Protocol)アドレスを登録しておくことにより、スマートフォン200は、MFP100と通信することができ、データの送受信が可能となる。   The wireless LAN I / F 208 is an interface for communicating with the wireless station 5 and connecting the smartphone 200 to the network 3. By registering the IP (Internet Protocol) address of the MFP 100 in the smartphone 200, the smartphone 200 can communicate with the MFP 100 and transmit and receive data.

NFC通信部209は、NFCの近距離無線通信方式でMFP100と無線により通信する。NFC通信部209は、例えば、MFP100との間の距離が通信可能な距離以下となると、MFP100と通信する。NFC通信部209が通信可能な距離は、数cmである。   NFC communication unit 209 communicates with MFP 100 wirelessly using an NFC short-range wireless communication method. For example, the NFC communication unit 209 communicates with the MFP 100 when the distance to the MFP 100 is equal to or less than the communicable distance. The distance that the NFC communication unit 209 can communicate is several centimeters.

フラッシュメモリ203は、CPU201が実行するプログラム、またはそのプログラムを実行するために必要なデータを記憶する。CPU201は、フラッシュメモリ203に記録されたプログラムを、CPU201が備えるRAMにロードして実行する。   The flash memory 203 stores a program executed by the CPU 201 or data necessary for executing the program. The CPU 201 loads the program recorded in the flash memory 203 to the RAM included in the CPU 201 and executes it.

外部記憶装置211は、スマートフォン200に着脱自在であり、アプリケーションプログラムを記憶したCD−ROM211Aが装着可能である。CPU201は、外部記憶装置211を介してCD−ROM211Aにアクセス可能である。CPU201は、外部記憶装置211に装着されたCD−ROM211Aに記録されたアプリケーションプログラムを、CPU201が備えるRAMにロードして実行することが可能である。   The external storage device 211 is detachably attached to the smartphone 200, and a CD-ROM 211A storing an application program can be attached thereto. The CPU 201 can access the CD-ROM 211A via the external storage device 211. The CPU 201 can load an application program recorded on the CD-ROM 211A mounted on the external storage device 211 into a RAM included in the CPU 201 and execute it.

なお、CPU201が実行するプログラムとして、フラッシュメモリ203またはCD−ROM211Aに記録されたプログラムについて説明したが、ネットワーク3に接続された他のコンピューターが、フラッシュメモリ203に記憶されたプログラムを書換えたプログラム、または、追加して書き込んだ新たなプログラムであってもよい。さらに、スマートフォン200が、ネットワーク3に接続された他のコンピューターからダウンロードしたプログラムでもよい。ここでいうプログラムは、CPU201が直接実行可能なプログラムだけでなく、ソースプログラム、圧縮処理されたプログラム、暗号化されたプログラム等を含む。   Although the program recorded in the flash memory 203 or the CD-ROM 211A has been described as a program executed by the CPU 201, a program in which another computer connected to the network 3 rewrites the program stored in the flash memory 203, Alternatively, it may be a new program written additionally. Furthermore, the program which the smart phone 200 downloaded from the other computer connected to the network 3 may be sufficient. The program here includes not only a program directly executable by the CPU 201 but also a source program, a compressed program, an encrypted program, and the like.

なお、CPU201が実行するプログラムを記憶する媒体としては、CD−ROM211Aに限られず、光ディスク(MO/MD/DVD)、ICカード、光カード、マスクROM、EPROM、EEPROMなどの半導体メモリであってもよい。   The medium for storing the program executed by the CPU 201 is not limited to the CD-ROM 211A, and may be a semiconductor memory such as an optical disk (MO / MD / DVD), IC card, optical card, mask ROM, EPROM, or EEPROM. Good.

本実施の形態におけるスマートフォン200には、アプリケーションプログラムとして、MFP100の操作を支援するための支援情報を提供する支援情報提供プログラムがインストールされている。例えば、CPU111が支援情報提供プログラムを実行することにより、支援情報提供プログラムを実行するタスクが、ユーザーが入力する文字情報に関連付けられた支援情報を表示部206に表示する。文字情報は、支援情報を検索するためのキーワードであることが望ましく、例えば、ユーザーが操作を希望する処理の名称である。支援情報は、MFP100の操作を支援する情報である。例えば、支援情報は、MFP100に表示されている操作画面に対する操作を説明する情報である。さらに、設定値を設定する操作を支援するために、操作画面中の設定値を入力する領域を示す情報であってもよいし、操作画面の切り換える操作を支援するために、操作画面に含まれるボタンを示す情報であってもよい。   Smartphone 200 according to the present embodiment is installed with a support information providing program that provides support information for supporting the operation of MFP 100 as an application program. For example, when the CPU 111 executes the support information providing program, the task executing the support information providing program displays support information associated with the character information input by the user on the display unit 206. The character information is preferably a keyword for searching for support information, and is, for example, the name of a process that the user desires to operate. The support information is information that supports the operation of the MFP 100. For example, the support information is information describing an operation on the operation screen displayed on the MFP 100. Further, in order to support an operation for setting a set value, information indicating an area for inputting a set value in the operation screen may be included, or included in the operation screen to support an operation for switching the operation screen. Information indicating a button may be used.

文字情報の入力を受け付けるために、スマートフォン200は、ユーザーにより操作部207に入力される文字情報を受け付ける。また、スマートフォン200に音声を認識する音声認識プログラムがインストールされている場合には、スマートフォン200は、ユーザーが発声する音声を通話部205が備えるマイクロフォンで受け付け、音声認識プログラムを実行するタスクが、その音声を文字情報に変換することにより、文字情報を受け付けるようにしてもよい。   In order to receive input of character information, the smartphone 200 receives character information input to the operation unit 207 by the user. When a voice recognition program for recognizing voice is installed in the smartphone 200, the smartphone 200 receives a voice uttered by the user with a microphone included in the calling unit 205, and executes a task for executing the voice recognition program. Character information may be received by converting voice into character information.

また、この操作支援プログラムは、学習機能を有してもよい。例えば、スマートフォン200のユーザーが過去に入力した文字情報と、その文字情報に対応する複数の支援情報のうちからユーザーにより選択された支援情報とを関連付けた履歴情報を記憶するようにし、この履歴情報に基づいて、ユーザーが入力した文字情報に対応する適切な支援情報を提示するようにする。   The operation support program may have a learning function. For example, history information in which character information input by the user of the smartphone 200 in the past and support information selected by the user from among a plurality of support information corresponding to the character information is stored, and the history information is stored. Based on the above, appropriate support information corresponding to the character information input by the user is presented.

また、スマートフォン200にインストールされるアプリケーションプログラムは、支援情報提供プログラムに限られず、スマートフォン200の操作を容易にするためにスマートフォン200にインストールされているプログラムであってもよい。例えば、ユーザーが音声で氏名を入力する場合に、スマートフォン200に記憶されているアドレス帳から、その氏名で特定されるユーザーのアドレス情報を表示するプログラムであってもよい。   Moreover, the application program installed in the smartphone 200 is not limited to the support information providing program, and may be a program installed in the smartphone 200 in order to facilitate the operation of the smartphone 200. For example, when the user inputs his / her name by voice, the program may display the address information of the user specified by the name from the address book stored in the smartphone 200.

図7は、本実施の形態におけるMFPが備えるCPUの機能の一例を示すブロック図である。図7に示す機能は、MFP100が備えるCPU111がROM113、HDD115またはCD−ROM118に記憶された設定値設定プログラムを実行することにより、CPU111に形成される機能である。なお、図7に示すCPU111の各機能は、入力に対して予め定められた処理を実行し、処理結果を出力する。このため、CPU111の各機能は、リレー等を用いた電子回路で実現することができる。図7を参照して、CPU111は、画像取得部51と、解析部53と、操作支援部55と、端末画像表示部57と、操作受付部59と、操作画面表示部61と、設定値決定部63と、処理実行部65と、を含む。   FIG. 7 is a block diagram illustrating an example of functions of the CPU provided in the MFP according to the present embodiment. The functions illustrated in FIG. 7 are functions formed in the CPU 111 when the CPU 111 provided in the MFP 100 executes a setting value setting program stored in the ROM 113, HDD 115, or CD-ROM 118. Each function of the CPU 111 shown in FIG. 7 executes a predetermined process for the input and outputs a process result. Therefore, each function of the CPU 111 can be realized by an electronic circuit using a relay or the like. Referring to FIG. 7, CPU 111 includes image acquisition unit 51, analysis unit 53, operation support unit 55, terminal image display unit 57, operation reception unit 59, operation screen display unit 61, and set value determination. Unit 63 and process execution unit 65.

画像取得部51は、スマートフォン200と通信し、スマートフォン200が表示部206に表示している画像を取得する。例えば、画像取得部51は、NFC通信部119がスマートフォン200と通信可能になったことを検出すると、通信I/F部112を制御して、スマートフォン200との間で通信経路を確立する。NFC通信部119は、スマートフォン200との間で通信するための電波の周波数が予め定められている。このため、NFC通信部119は、予め定められた周波数の電波を受信する場合に、スマートフォン200と通信可能になる。   The image acquisition unit 51 communicates with the smartphone 200 and acquires an image displayed on the display unit 206 by the smartphone 200. For example, when the image acquisition unit 51 detects that the NFC communication unit 119 can communicate with the smartphone 200, the image acquisition unit 51 controls the communication I / F unit 112 to establish a communication path with the smartphone 200. The NFC communication unit 119 has a predetermined frequency of radio waves for communication with the smartphone 200. For this reason, the NFC communication part 119 becomes communicable with the smart phone 200, when receiving the electromagnetic wave of a predetermined frequency.

この段階で、スマートフォン200において、表示部206に表示された画像を送信する処理を定めた、汎用的なアプリケーションプログラムが実行される場合、通信I/F部112はスマートフォン200が送信する画像を受信する。画像取得部51は、通信I/F部112がスマートフォン200から受信する画像を端末画像として取得する。画像取得部51は、スマートフォン200から取得された端末画像を、解析部53および端末画像表示部57に出力する。したがって、スマートフォン200にMFP100と通信して、MFP100の仕様に合致した専用のアプリケーションプログラムをインストールすることなく、スマートフォン200から端末画像を取得することができる。   At this stage, when a general-purpose application program that defines a process for transmitting an image displayed on the display unit 206 is executed in the smartphone 200, the communication I / F unit 112 receives an image transmitted by the smartphone 200. To do. The image acquisition unit 51 acquires an image received by the communication I / F unit 112 from the smartphone 200 as a terminal image. The image acquisition unit 51 outputs the terminal image acquired from the smartphone 200 to the analysis unit 53 and the terminal image display unit 57. Therefore, the terminal image can be acquired from the smartphone 200 without communicating with the MFP 100 on the smartphone 200 and installing a dedicated application program that matches the specifications of the MFP 100.

なお、画像取得部51は、スマートフォン200がストリームデータを送信する場合、通信I/F部112がスマートフォン200から受信するストリームデータを取得する。この場合、画像取得部51は、ストリームデータから1フレームの静止画を抽出し、抽出した静止画を端末画像として取得する。   The image acquisition unit 51 acquires the stream data that the communication I / F unit 112 receives from the smartphone 200 when the smartphone 200 transmits stream data. In this case, the image acquisition unit 51 extracts one frame of a still image from the stream data, and acquires the extracted still image as a terminal image.

操作画面表示部61は、表示部161を制御し、HDD115に記憶された操作画面を表示部161の表示面中で予め定められた第1領域に表示する。これにより、ユーザーは、操作部163を操作して、MFP100に操作を入力することが可能となる。操作画面は、ユーザーがMFP100に処理を実行させるために、設定値を設定するための画面を含む。設定値は、処理実行部65が処理を実行するために用いる値である。操作画面表示部61は、表示部161に操作画面を表示することに応じて、表示された操作画面を識別するための画面識別情報を操作支援部55および設定値決定部63に出力する。   The operation screen display unit 61 controls the display unit 161 to display the operation screen stored in the HDD 115 in a predetermined first area on the display surface of the display unit 161. As a result, the user can operate the operation unit 163 to input an operation to the MFP 100. The operation screen includes a screen for setting a setting value for the user to cause MFP 100 to execute a process. The set value is a value used by the process execution unit 65 to execute the process. The operation screen display unit 61 outputs screen identification information for identifying the displayed operation screen to the operation support unit 55 and the set value determination unit 63 in response to displaying the operation screen on the display unit 161.

操作画面は、1以上の表示部品を含む。表示部品は、ユーザーに通知する情報を表示する通知部品、ユーザーにより入力される値を受け付ける入力部品、処理の実行を指示する操作を受け付ける指示部品を含む。なお、表示部品は、これらに限定されるものではない。   The operation screen includes one or more display components. The display component includes a notification component that displays information to be notified to the user, an input component that receives a value input by the user, and an instruction component that receives an operation that instructs execution of processing. The display component is not limited to these.

通知部品は、例えば、操作画面を説明する文字列が表された説明用部品、次の操作を促すメッセージが表されたメッセージ部品等を含む。入力部品は、ユーザーにより入力される設定値を受け付ける直接受付部品、複数の設定値のうちから1以上を選択する操作を受け付ける選択受付部品、予め定められた処理を実行するコマンドが関連付けられたコマンド部品を含む。直接受付部品は、例えば、コピー枚数等のユーザーが直接入力する設定値を受け付けるための表示部品である。選択受付部品は、用紙のサイズ等の予め定められた複数の設定値のうちから1以上を選択する操作を受け付けるための表示部品である。コマンド部品は、特定の操作画面に遷移するコマンド等が関連付けられた表示部品である。   The notification component includes, for example, an explanatory component that represents a character string that describes the operation screen, a message component that represents a message that prompts the next operation, and the like. The input component includes a direct reception component that receives a setting value input by the user, a selection reception component that receives an operation for selecting one or more of a plurality of setting values, and a command associated with a command for executing a predetermined process Including parts. The direct reception component is, for example, a display component for receiving setting values directly input by the user, such as the number of copies. The selection receiving component is a display component for receiving an operation of selecting one or more from a plurality of predetermined setting values such as a paper size. The command component is a display component associated with a command or the like that transitions to a specific operation screen.

表示部品は、アイコンなどの画像として操作画面に含まれる場合がある。例えば、画面をスクロールさせるための操作を受け付ける画像である。   The display component may be included in the operation screen as an image such as an icon. For example, it is an image that accepts an operation for scrolling the screen.

端末画像表示部57は、端末画像が入力されることに応じて、端末画像を表示部161に表示する。端末画像表示部57は、表示部161の表示面中で予め定められた第2領域に端末画像を表示する。第2領域は、第1領域と重ならない。   The terminal image display unit 57 displays the terminal image on the display unit 161 in response to the input of the terminal image. The terminal image display unit 57 displays a terminal image in a predetermined second area on the display surface of the display unit 161. The second area does not overlap with the first area.

操作受付部59は、操作部163を制御して、ユーザーが操作部163に入力する操作を受け付ける。操作受付部59は、受け付けられた操作を操作画面表示部61および設定値決定部63に出力する。   The operation reception unit 59 controls the operation unit 163 to receive an operation input by the user to the operation unit 163. The operation accepting unit 59 outputs the accepted operation to the operation screen display unit 61 and the set value determination unit 63.

操作受付部59は、ユーザーが、表示部161に表示された操作画面に従って、操作部163に設定値を入力する場合、設定値を設定する設定操作を受け付ける。設定値決定部63は、操作受付部59により設定操作が受け付けられる場合、受け付けられた設定操作により特定される設定値を決定する。設定値決定部63は、決定された設定値を処理実行部65に出力する。具体的には、設定値決定部63は、操作画面中で設定値を入力する領域をユーザーが指示する場合、タッチパネル165が操作画面中で設定値を入力する領域中の位置を検出し、領域指示操作を受け付ける。設定値決定部63は、領域指示操作を受け付けると、領域指示操作で特定される領域に対応する設定値の種類を処理対象に設定する。そして、設定値決定部63は、ユーザーが操作部163に設定値を入力する場合、操作部163が受け付ける設定値を、処理対象に設定されている種類の設定値に決定する。例えば、ユーザーがハードキー部167を操作して入力する数字の配列を設定値に決定する。また、表示部161にキーボードを表示し、タッチパネル165により検出された位置に対応するキーに割り当てられた文字を受け付け、受け付けられた複数の文字の配列を設定値に決定する。   When the user inputs a setting value to the operation unit 163 according to the operation screen displayed on the display unit 161, the operation reception unit 59 receives a setting operation for setting the setting value. When the setting operation is received by the operation receiving unit 59, the setting value determining unit 63 determines a setting value specified by the received setting operation. The set value determining unit 63 outputs the determined set value to the process executing unit 65. Specifically, when the user designates an area for inputting a setting value in the operation screen, the setting value determining unit 63 detects a position in the area in which the touch panel 165 inputs the setting value in the operation screen. An instruction operation is accepted. When accepting the area instruction operation, the setting value determination unit 63 sets the type of the setting value corresponding to the area specified by the area instruction operation as a processing target. Then, when the user inputs a setting value to the operation unit 163, the setting value determination unit 63 determines the setting value received by the operation unit 163 as the setting value of the type set as the processing target. For example, an arrangement of numbers input by the user by operating the hard key unit 167 is determined as the set value. In addition, a keyboard is displayed on the display unit 161, characters assigned to keys corresponding to the positions detected by the touch panel 165 are received, and an array of a plurality of received characters is determined as a set value.

処理実行部65は、操作受付部59が実行指示操作を受け付ける場合、設定値決定部63により決定された設定値に従って処理を実行する。操作受付部59は、操作部163に処理の実行を指示する操作を入力する場合、実行指示操作を受け付ける。処理実行部65が実行可能な処理は、例えば、原稿読取処理、画像形成処理、データ送受信処理、ファクシミリ送受信処理およびデータ管理処理を含む。処理実行部65が実行可能な処理は、原稿読取処理、画像形成処理、データ送受信処理、ファクシミリ送受信処理およびデータ管理処理の少なくとも2つを組み合わせた処理を含む。なお、処理実行部65が実行可能な処理は、これらに限定されることなく、より少なくてもよいし、より多くの種類の処理を含んでもよい。   When the operation accepting unit 59 accepts an execution instruction operation, the process executing unit 65 executes the process according to the set value determined by the set value determining unit 63. The operation reception unit 59 receives an execution instruction operation when inputting an operation to instruct the operation unit 163 to execute the process. The processes that can be executed by the process execution unit 65 include, for example, a document reading process, an image forming process, a data transmission / reception process, a facsimile transmission / reception process, and a data management process. The processing that can be executed by the processing execution unit 65 includes processing combining at least two of document reading processing, image formation processing, data transmission / reception processing, facsimile transmission / reception processing, and data management processing. The processes that can be executed by the process execution unit 65 are not limited to these, and may be smaller or may include more types of processes.

解析部53は、画像取得部51から端末画像が入力され、端末画像を解析する。解析部53は、画像取得部51から端末画像が入力されることに応じて、端末画像を解析する。換言すれば、解析部53は、画像取得部51から新たな端末画像が入力されるごとに、端末画像を解析する。なお、解析部53は、操作受付部59が開始指示操作を受け付けることに応じて、端末画像を解析するようにしてもよい。操作受付部59は、ユーザーが操作部163に解析の開始を指示する操作を入力する場合に、開始指示操作を受け付ける。例えば、操作受付部59は、端末画像表示部57により端末画像が表示部161に表示される場合に、開始指示が割り当てられた開始指示ボタンを表示部161に表示する。操作受付部59は、開始指示ボタン内の位置がユーザーにより指示されて、タッチパネル165が開始指示ボタン内の位置を検出すると、開始指示操作を受け付ける。   The analysis unit 53 receives the terminal image from the image acquisition unit 51 and analyzes the terminal image. The analysis unit 53 analyzes the terminal image in response to the terminal image input from the image acquisition unit 51. In other words, the analysis unit 53 analyzes the terminal image every time a new terminal image is input from the image acquisition unit 51. The analysis unit 53 may analyze the terminal image in response to the operation reception unit 59 receiving a start instruction operation. The operation receiving unit 59 receives a start instruction operation when the user inputs an operation for instructing the operation unit 163 to start analysis. For example, when the terminal image is displayed on the display unit 161 by the terminal image display unit 57, the operation reception unit 59 displays a start instruction button to which a start instruction is assigned on the display unit 161. When the position in the start instruction button is instructed by the user and the touch panel 165 detects the position in the start instruction button, the operation reception unit 59 receives a start instruction operation.

解析部53は、文字抽出部67と、画像抽出部69と、を含む。文字抽出部67は、端末画像を文字認識し、文字を抽出する。文字抽出部67は、端末画像の全体から文字を抽出し、抽出された文字を含む文字情報を操作支援部55に出力する。画像抽出部69は、端末画像から文字以外の画像を抽出する。画像抽出部69は、抽出された画像を操作支援部55に出力する。   The analysis unit 53 includes a character extraction unit 67 and an image extraction unit 69. The character extraction unit 67 recognizes characters in the terminal image and extracts characters. The character extraction unit 67 extracts characters from the entire terminal image and outputs character information including the extracted characters to the operation support unit 55. The image extraction unit 69 extracts an image other than characters from the terminal image. The image extraction unit 69 outputs the extracted image to the operation support unit 55.

操作支援部55は、予測部71と、強調表示部75と、を含む。予測部71は、端末画像に含まれる情報に基づいて、ユーザーにより入力される予定の操作の対象となる表示部品を予測する。予測部71は、端末画像に含まれる情報として、解析部53から文字情報、画像、または文字情報と画像との組が入力される。   The operation support unit 55 includes a prediction unit 71 and a highlight display unit 75. The prediction unit 71 predicts a display component that is a target of a scheduled operation input by the user based on information included in the terminal image. The prediction unit 71 receives character information, an image, or a set of character information and an image from the analysis unit 53 as information included in the terminal image.

予測部71は、比較部73を含む。比較部73は、文字抽出部67から入力される文字情報に含まれる文字列を、表示部品に対して予め関連付けられた予約語と比較する。予約語は、操作画面に含まれる表示部品に付された部品名称、およびその表示部品に対して予め登録された単語である。例えば、コピー枚数を設定するための入力部品に対して、部品名称である「コピー枚数」、およびコピー処理の動作の回数を示す単語として、「枚数」、「部数」、「置数」等が予約語として予め登録されている。また、原稿のサイズを設定する選択受付部品に対して、部品名称である「原稿サイズ」、およびMFP100に収納されている1以上の種類の用紙を示す単語として、「A4」、「A3」、「B4」等の用紙のサイズを示す単語、および「縦」、「横」等の用紙の方向を示す単語が予約語として予め登録されている。コピー処理を特定するための設定値を設定するための操作画面であるコピー設定画面に遷移するコマンドが関連付けられたコマンド部品に対して、部品名称である「コピー設定画面」、および「コピー」、「複写」等の単語が予約語として予め登録されている。また、比較部73は、画像抽出部69から入力される画像を、表示部品の画像と比較する。また、予約語は、ユーザーによる操作履歴から追加されるようにしてもよい。   The prediction unit 71 includes a comparison unit 73. The comparison unit 73 compares the character string included in the character information input from the character extraction unit 67 with a reserved word associated in advance with the display component. The reserved word is a part name given to a display part included in the operation screen and a word registered in advance for the display part. For example, for an input part for setting the number of copies, “part number”, “number of copies”, “number of copies”, etc., are used as words indicating the part name “number of copies” and the number of copy processing operations. It is registered in advance as a reserved word. In addition, for the selected reception component for setting the size of the document, “A4”, “A3”, “A4”, “A3”, and the “document size” that is the component name and words indicating one or more types of sheets stored in the MFP 100 Words indicating the paper size such as “B4” and words indicating the paper direction such as “vertical” and “horizontal” are registered in advance as reserved words. For the command component associated with the command component that transitions to the copy setting screen, which is the operation screen for setting the setting value for specifying the copy process, the component name "Copy setting screen", "Copy", Words such as “copy” are registered in advance as reserved words. The comparison unit 73 also compares the image input from the image extraction unit 69 with the image of the display component. Further, the reserved word may be added from an operation history by the user.

予測部71は、比較部73による比較の結果、文字抽出部67から入力される文字情報に含まれる文字列のうち対象文字列が、表示部品に関連する予約語と一致または類似する場合、対象文字列と類似する予約語に関連する表示部品を、ユーザーにより入力される予定の操作の対象である対象部品として予測する。また、予測部71は、比較部73による比較の結果、画像抽出部69から入力される画像のうち対象画像が、表示部品の画像と一致または類似する場合、画像抽出部69から入力される画像と一致または類似する表示部品を、ユーザーにより入力される予定の操作の対象である対象部品として予測する。予測部71は、対象部品として予測された表示部品を強調表示部75に出力する。   As a result of the comparison by the comparison unit 73, the prediction unit 71 determines that the target character string included in the character information input from the character extraction unit 67 matches or is similar to the reserved word related to the display component. A display component related to a reserved word similar to a character string is predicted as a target component that is a target of a scheduled operation input by the user. In addition, as a result of comparison by the comparison unit 73, the prediction unit 71 determines that an image input from the image extraction unit 69 if the target image matches or resembles the image of the display component among the images input from the image extraction unit 69. A display component that matches or is similar to is predicted as a target component that is a target of an operation scheduled to be input by the user. The prediction unit 71 outputs the display component predicted as the target component to the highlight display unit 75.

予測部71は、予測した表示部品が複数の場合、端末画像から抽出された文字列または画像のうち端末画像に出現する頻度が最大の文字列または画像に対応する表示部品を、ユーザーにより入力される予定の操作の対象として予測する。端末画像に出現する頻度が大きいほど、注目されている表示部品である可能性が高いからである。   When there are a plurality of predicted display components, the prediction unit 71 inputs a display component corresponding to a character string or an image that appears most frequently in the terminal image among character strings or images extracted from the terminal image by the user. Predict as the target of the scheduled operation. This is because the higher the frequency of appearance in the terminal image, the higher the possibility of the display component being noted.

強調表示部75は、予測部71から入力される部品識別情報で特定される表示部品を表示部161に強調して表示する。強調表示部75は、近傍配置部81と、配置変更部83と、関連表示部85と、縮小部87と、を含む。   The highlighting display unit 75 highlights and displays the display component specified by the component identification information input from the prediction unit 71 on the display unit 161. The emphasis display unit 75 includes a neighborhood arrangement unit 81, an arrangement change unit 83, a related display unit 85, and a reduction unit 87.

近傍配置部81は、予測部71から部品識別情報が入力されることに応じて、部品識別情報で特定される表示部品の近傍に端末画像を表示する。近傍配置部81は、端末画像を操作画面に重畳して表示する。このため、予測された表示部品の操作画面における位置をユーザーに通知することができる。この際、端末画像を第2領域に表示したままであってもよいし、端末画像を第2領域に表示しないようにしてもよい。また、端末画像のサイズを縮小した画像を、表示部品の近傍に表示するようにしてもよい。   The neighborhood arrangement unit 81 displays a terminal image in the vicinity of the display component specified by the component identification information in response to the input of the component identification information from the prediction unit 71. The neighborhood arrangement unit 81 displays the terminal image superimposed on the operation screen. For this reason, it is possible to notify the user of the predicted position of the display component on the operation screen. At this time, the terminal image may remain displayed in the second area, or the terminal image may not be displayed in the second area. Further, an image obtained by reducing the size of the terminal image may be displayed in the vicinity of the display component.

近傍配置部81は、端末画像が、表示部161の表示面中で予め定められた第2領域に表示されている場合、端末画像を、第2領域から部品識別情報で特定される表示部品の近傍の位置まで移動させるようにしてもよい。また、端末画像を複製した画像を移動させるようにしてもよい。近傍配置部81は、端末画像を、第2領域から表示部品の近傍まで移動させる途中の状態を表示するようにしてもよい。これにより、表示部品の位置をユーザーによりわかりやすく通知することができる。   When the terminal image is displayed in a predetermined second area on the display surface of the display unit 161, the vicinity arranging unit 81 displays the terminal image of the display component specified by the component identification information from the second area. You may make it move to the position of the vicinity. Moreover, you may make it move the image which copied the terminal image. The neighborhood arranging unit 81 may display a state in the middle of moving the terminal image from the second area to the vicinity of the display component. Thereby, the position of the display component can be notified to the user in an easy-to-understand manner.

配置変更部83は、予測部71から部品識別情報が入力されることに応じて、部品識別情報で特定される表示部品が配置される位置を、他の表示部品よりも優先順位の高い位置となるように、操作画面中の1以上の表示部品が配置される位置を変更する。ここでは、優先順位は、操作画面中で左上が最も高く、右側または下側に距離が離れるほど優先順位が低くなる。配置変更部83は、配置が変更される前の位置から変更後の位置に表示部品が移動する状態を表示するようにしてもよい。これにより、表示部品の位置をユーザーによりわかりやすく通知することができる。   In response to the input of the component identification information from the prediction unit 71, the arrangement changing unit 83 sets the position where the display component specified by the component identification information is arranged as a position having a higher priority than other display components. The position where one or more display components in the operation screen are arranged is changed. Here, the priority order is the highest in the upper left of the operation screen, and the priority order decreases as the distance increases to the right or lower side. The arrangement changing unit 83 may display a state in which the display component moves from the position before the arrangement is changed to the position after the change. Thereby, the position of the display component can be notified to the user in an easy-to-understand manner.

関連表示部85は、予測部71から部品識別情報が入力されることに応じて、部品識別情報で特定される表示部品と、端末画像に含まれる対象文字列または対象画像との組を強調して表示する。具体的には、関連表示部85は、表示部品と、対象文字列または対象画像とを関連付ける指示画像を表示部161に表示する。例えば、指示画像は、表示部品と、対象文字列または対象画像とを結ぶ線である。表示部品と、対象文字列または対象画像とを線で結ぶことによって、表示部品と、対象文字列または対象画像とが関連すること、および表示部品をユーザーに通知することができる。   In response to the input of the component identification information from the prediction unit 71, the related display unit 85 emphasizes the set of the display component specified by the component identification information and the target character string or target image included in the terminal image. To display. Specifically, the related display unit 85 displays an instruction image that associates the display component with the target character string or target image on the display unit 161. For example, the instruction image is a line connecting a display component and a target character string or target image. By connecting the display component and the target character string or target image with a line, it is possible to notify the user that the display component is related to the target character string or target image and the display component.

また、指示画像は、表示部品および対象文字列、または表示部品および対象画像それぞれの近傍に配置される同一の2つの画像としてもよい。同一の2つの画像を配置することによって、それぞれの近傍に配置された表示部品と、対象文字列または対象画像とが関連していること、および表示部品をユーザーに通知することができる。   In addition, the instruction image may be a display component and a target character string, or two identical images arranged in the vicinity of the display component and the target image. By arranging the same two images, it is possible to notify the user that the display component arranged in the vicinity of each of the images is related to the target character string or the target image, and the display component.

近傍配置部81、配置変更部83および関連表示部85は、いずれか1つが機能する。この場合、変更モードを予め設定しておくようにすればよい。例えば、近傍配置部81を機能させる重畳モード、配置変更部83を機能させる配置変更モード、関連表示部85を機能させる指示モードのいずれかに変更モードを設定する。変更モードは、ユーザーにより選択されてもよいし、MFP100に予め設定されていてもよい。さらに、近傍配置部81、配置変更部83および関連表示部85の2つを組み合わせて機能するようにしてもよいし、近傍配置部81、配置変更部83および関連表示部85の全てを同時に機能するようにしてもよい。   Any one of the neighborhood arrangement unit 81, the arrangement change unit 83, and the related display unit 85 functions. In this case, the change mode may be set in advance. For example, the change mode is set to any one of a superposition mode in which the neighboring arrangement unit 81 functions, an arrangement change mode in which the arrangement change unit 83 functions, and an instruction mode in which the related display unit 85 functions. The change mode may be selected by the user or may be preset in MFP 100. Furthermore, the vicinity arrangement unit 81, the arrangement change unit 83, and the related display unit 85 may be combined to function, or the vicinity arrangement unit 81, the arrangement change unit 83, and the related display unit 85 all function simultaneously. You may make it do.

縮小部87は、予測部71から部品識別情報が入力されない場合、端末画像のサイズを縮小して、第2領域に表示する。これにより、端末画像に表示部品に関連する情報が存在しないことをユーザーに通知することができる。また、縮小部87は、予測部71から部品識別情報が入力されない場合、端末画像を表示部161に表示しないようにしてもよい。   When the component identification information is not input from the prediction unit 71, the reduction unit 87 reduces the size of the terminal image and displays it in the second area. Accordingly, it is possible to notify the user that there is no information related to the display component in the terminal image. The reduction unit 87 may not display the terminal image on the display unit 161 when the component identification information is not input from the prediction unit 71.

図8は、操作支援処理の流れの一例を示すフローチャートである。操作支援処理は、MFP100が備えるCPU111がROM113、HDD115またはCD−ROM118に記憶された操作支援プログラムを実行することにより、CPU111により実行される処理である。図8を参照して、CPU111は、操作画面を表示部161に表示する(ステップS01)。HDD115に記憶された複数の操作画面のうちから1つの操作画面を表示部161に表示する。複数の操作画面のうち予め定められた操作画面を表示してもよいし、ユーザーが操作部163に入力する操作により定められる操作画面を表示してもよい。   FIG. 8 is a flowchart illustrating an example of the flow of the operation support process. The operation support process is a process executed by CPU 111 when CPU 111 provided in MFP 100 executes an operation support program stored in ROM 113, HDD 115, or CD-ROM 118. Referring to FIG. 8, CPU 111 displays an operation screen on display unit 161 (step S01). One operation screen is displayed on the display unit 161 from the plurality of operation screens stored in the HDD 115. Of the plurality of operation screens, a predetermined operation screen may be displayed, or an operation screen determined by an operation input by the user to the operation unit 163 may be displayed.

次のステップS02においては、NFC通信部119が他の装置を検出したか否かを判断する。NFC通信部119が予め定められた周波数の電波を受信したならば他の装置を検出したと判断する。例えば、ユーザーが携帯するスマートフォン200を、NFC通信部119のアンテナに近づけると、NFC通信部119がスマートフォン200から発せられる周波数の電波を検出するので、スマートフォン200を検出する。NFC通信部119が他の装置を検出するまで待機状態となり(ステップS02でNO)、NFC通信部119が他の装置を検出したならば(ステップS02でYES)、処理をステップS03に進める。以下、NFC通信部119がスマートフォン200を検出する場合を例に説明する。   In the next step S02, it is determined whether or not the NFC communication unit 119 has detected another device. If the NFC communication unit 119 receives a radio wave having a predetermined frequency, it is determined that another device has been detected. For example, when the smartphone 200 carried by the user is brought close to the antenna of the NFC communication unit 119, the NFC communication unit 119 detects a radio wave having a frequency emitted from the smartphone 200, so the smartphone 200 is detected. The process waits until the NFC communication unit 119 detects another device (NO in step S02). If the NFC communication unit 119 detects another device (YES in step S02), the process proceeds to step S03. Hereinafter, a case where the NFC communication unit 119 detects the smartphone 200 will be described as an example.

ステップS03においては、ステップS02において検出された装置、ここではスマートフォン200との間で通信経路を確立し、処理をステップS04に進める。例えば、通信I/F部112を制御して、スマートフォン200との間で通信経路を確立する。そして、スマートフォン200から端末画像を受信したか否かを判断する(ステップS04)。スマートフォン200において、表示部206に表示された画像を送信するアプリケーションプログラムが実行されている場合、スマートフォン200は、ステップS03において確立された通信経路を介して、表示部206に表示された画像を送信するので、通信I/F部112がスマートフォン200から送信される画像を端末画像として受信する。通信I/F部112が端末画像を受信したならば処理をステップS05に進めるが、そうでなければ処理をステップS08に進める。なお、ステップS03においてスマートフォン200との間で通信経路が確立されていない場合には、スマートフォン200と通信できないので、処理をステップS08に進める。   In step S03, a communication path is established with the device detected in step S02, here, smartphone 200, and the process proceeds to step S04. For example, the communication I / F unit 112 is controlled to establish a communication path with the smartphone 200. And it is judged whether the terminal image was received from the smart phone 200 (step S04). In the smart phone 200, when the application program which transmits the image displayed on the display part 206 is performed, the smart phone 200 transmits the image displayed on the display part 206 via the communication path established in step S03. Therefore, the communication I / F unit 112 receives an image transmitted from the smartphone 200 as a terminal image. If communication I / F unit 112 has received the terminal image, the process proceeds to step S05; otherwise, the process proceeds to step S08. In addition, when a communication path is not established with the smart phone 200 in step S03, since it cannot communicate with the smart phone 200, a process is advanced to step S08.

ステップS05においては、表示部161の第2領域に端末画像を表示し、処理をステップS06に進める。ステップS06においては、予測処理を実行し、処理をステップS07に進める。ステップS07においては、操作画面変更処理を実行し、処理をステップS08に進める。予測処理および操作画面変更処理の詳細は後述する。   In step S05, the terminal image is displayed in the second area of display unit 161, and the process proceeds to step S06. In step S06, a prediction process is executed, and the process proceeds to step S07. In step S07, an operation screen change process is executed, and the process proceeds to step S08. Details of the prediction process and the operation screen change process will be described later.

ステップS08においては、操作を受け付けたか否かを判断する。操作部163がユーザーにより入力される操作を受け付けたならば処理をステップS09に進めるが、そうでなければ処理をステップS04に戻す。ステップS09においては、操作受付処理を実行し、処理をステップS10に進める。操作受付処理の詳細は後述する。ステップS10においては、処理が終了したか否かを判断する。処理が終了したならば処理を終了するが、そうでなければ処理をステップS04に戻す。   In step S08, it is determined whether an operation has been accepted. If operation unit 163 accepts an operation input by the user, the process proceeds to step S09; otherwise, the process returns to step S04. In step S09, an operation acceptance process is executed, and the process proceeds to step S10. Details of the operation reception process will be described later. In step S10, it is determined whether or not the process is finished. If the process ends, the process ends. If not, the process returns to step S04.

図9は、予測処理の流れの一例を示すフローチャートである。予測処理は、図8のステップS06において実行される処理である。図9を参照して、CPU111は、端末画像を文字認識し(ステップS31)、処理をステップS32に進める。ステップS32においては、文字認識により端末画像から抽出された文字情報のうちから処理対象となる単語を選択し、処理をステップS33に進める。   FIG. 9 is a flowchart illustrating an example of the flow of the prediction process. The prediction process is a process executed in step S06 in FIG. Referring to FIG. 9, CPU 111 recognizes characters in the terminal image (step S31), and advances the process to step S32. In step S32, a word to be processed is selected from character information extracted from the terminal image by character recognition, and the process proceeds to step S33.

ステップS33においては、処理対象の単語と同一または類似する予約語が存在するか否かを判断する。そのような予約語が存在するならば、処理をステップS34に進めるが、そうでなければ処理をステップS35に進める。ステップS34においては、処理対象の単語を候補部分に決定し、処理対象の単語と同一または類似する予約語と関連付けられた表示部品を対象部品に決定する。対象部品は、ユーザーにより操作されることが予想される表示部品である。次のステップS35においては、ステップS32において処理対象に選択されていない単語が、対象画像から抽出された文字情報に含まれるか否かを判断する。未選択の単語が存在するならば処理をステップS32に戻すが、そうでなければ処理をステップS36に進める。ステップS36においては、対象部品が複数か否かを判断する。対象部品が複数ならば処理をステップS37に進めるが、そうでなければ処理をステップS38に進める。ステップS37においては、ステップS34において対象部品に決定された表示部品のうちから、端末画像から抽出された文字列に出現する頻度が最大の候補部分に対応する対象部品のみを、ユーザーにより操作されることが予想される表示部品に選択し、処理をステップS38に進める。端末画像から抽出された文字列に出現する頻度が最大でない候補部分に対応する表示部品を、対象部品から除外する。   In step S33, it is determined whether there is a reserved word that is the same as or similar to the word to be processed. If such a reserved word exists, the process proceeds to step S34; otherwise, the process proceeds to step S35. In step S34, a word to be processed is determined as a candidate part, and a display component associated with a reserved word that is the same as or similar to the word to be processed is determined as a target component. The target part is a display part that is expected to be operated by the user. In the next step S35, it is determined whether or not the word not selected as the processing target in step S32 is included in the character information extracted from the target image. If there is an unselected word, the process returns to step S32. If not, the process proceeds to step S36. In step S36, it is determined whether there are a plurality of target parts. If there are a plurality of target parts, the process proceeds to step S37; otherwise, the process proceeds to step S38. In step S37, only the target part corresponding to the candidate part having the highest frequency of appearance in the character string extracted from the terminal image among the display parts determined as the target part in step S34 is operated by the user. A display component that is expected to be selected is selected, and the process proceeds to step S38. A display component corresponding to a candidate portion whose frequency of appearance in the character string extracted from the terminal image is not the maximum is excluded from the target components.

ステップS38においては、端末画像に含まれる画像を処理対象に選択する。次のステップS39においては、処理対象に選択された画像が、操作画面に含まれる表示部品の画像に類似するか否かを判断する。処理対象に選択された画像が、操作画面に含まれる表示部品の画像と同一または類似するならば処理をステップS40に進めるが、そうでなければ処理をステップS41に進める。ステップS40においては、処理対象の画像を候補部分に決定し、処理対象の画像と類似する表示部品を対象部品に決定する。次のステップS41においては、ステップS38において処理対象に選択されていない画像が、端末画像に含まれるか否かを判断する。未選択の画像が存在するならば処理をステップS38に戻すが、そうでなければ処理をステップS42に進める。ステップS42においては、対象部品が複数か否かを判断する。対象部品が複数ならば処理をステップS43に進めるが、そうでなければ処理を操作支援処理に戻す。ステップS43においては、ステップS37において対象部品に選択された表示部品、および、ステップS40において対象部品に決定された表示部品のうちから、端末画像から抽出された文字列に出現する頻度、または端末画像に出現する頻度が最大の候補部分に対応する対象部品のみを、ユーザーにより操作されることが予想される表示部品に選択し、処理を操作支援処理に戻す。端末画像から抽出された文字列に出現する頻度、または端末画像に出現する頻度が最大でない候補部分に対応する表示部品を、対象部品から除外する。   In step S38, an image included in the terminal image is selected as a processing target. In the next step S39, it is determined whether or not the image selected as the processing target is similar to the image of the display component included in the operation screen. If the image selected as the processing target is the same as or similar to the image of the display component included in the operation screen, the process proceeds to step S40; otherwise, the process proceeds to step S41. In step S40, the processing target image is determined as a candidate portion, and a display component similar to the processing target image is determined as the target component. In the next step S41, it is determined whether or not an image that has not been selected as a processing target in step S38 is included in the terminal image. If there is an unselected image, the process returns to step S38; otherwise, the process proceeds to step S42. In step S42, it is determined whether there are a plurality of target parts. If there are a plurality of target parts, the process proceeds to step S43; otherwise, the process returns to the operation support process. In step S43, the frequency of appearance in the character string extracted from the terminal image from the display component selected as the target component in step S37 and the display component determined as the target component in step S40, or the terminal image Only the target part corresponding to the candidate part having the highest frequency of occurrence is selected as the display part that is expected to be operated by the user, and the process is returned to the operation support process. A display component corresponding to a candidate portion whose frequency that appears in the character string extracted from the terminal image or frequency that appears in the terminal image is not maximum is excluded from the target components.

図10は、操作画面変更処理の流れの一例を示すフローチャートである。操作画面変更処理は、図8のステップS07において実行される処理である。操作画面変更処理が実行される前のステップS06において実行される予測処理において、対象部品と、その対象部品に対応する候補部分とが決定される場合と、それらが決定されない場合とがある。図10を参照して、CPU111は、対象部品が決定されているか否かを判断する(ステップS51)。対象部品が決定されているならば処理をステップS52に進めるが、そうでなければ処理をステップS56に進める。ステップS56においては、第2領域に表示されている端末画像を縮小して、第2領域に表示し、処理を操作支援処理に戻す。端末画像が縮小して表示されるので、ユーザーに操作を支援する情報が端末画像に存在しないことを通知することができる。   FIG. 10 is a flowchart illustrating an example of the flow of the operation screen change process. The operation screen change process is a process executed in step S07 in FIG. In the prediction process executed in step S06 before the operation screen change process is executed, there are a case where the target part and a candidate portion corresponding to the target part are determined, and a case where they are not determined. Referring to FIG. 10, CPU 111 determines whether a target part has been determined (step S51). If the target part has been determined, the process proceeds to step S52; otherwise, the process proceeds to step S56. In step S56, the terminal image displayed in the second area is reduced and displayed in the second area, and the process returns to the operation support process. Since the terminal image is displayed in a reduced size, it is possible to notify the user that information for assisting the operation does not exist in the terminal image.

ステップS52においては、変更モードによって処理を分岐させる。変更モードは、重畳モードと、配置変更モードと、指示モードと、を含み、予めいずれかに設定されている。変更モードが重畳モードに設定されているならば処理をステップS53に進め、変更モードが配置変更モードに設定されているならば処理をステップS54に進め、変更モードが指示モードに設定されているならば処理をステップS55に進める。   In step S52, the process branches depending on the change mode. The change mode includes a superposition mode, an arrangement change mode, and an instruction mode, and is set to any one in advance. If the change mode is set to the superposition mode, the process proceeds to step S53. If the change mode is set to the arrangement change mode, the process proceeds to step S54. If the change mode is set to the instruction mode, If so, the process proceeds to step S55.

ステップS53においては、第2領域に表示されている端末画像を、対象部品に決定されている表示部品の近傍に配置し、処理をステップS55に進める。これにより、端末画像が対象部品に決定されている表示部品の近傍に表示されるので、ユーザーが操作の対象とする表示部品をユーザーに端末画像が配置される位置で示すことができる。   In step S53, the terminal image displayed in the second area is arranged in the vicinity of the display component determined as the target component, and the process proceeds to step S55. As a result, the terminal image is displayed in the vicinity of the display component determined as the target component, so that the display component to be operated by the user can be shown to the user at the position where the terminal image is arranged.

ステップS54においては、操作画面に含まれる1以上の表示部品の配置を変更し、処理をステップS55に進める。対象部品に決定されている表示部品が最も優先順位の高い最優先位置となるように、1以上の表示部品の配置を変更する。これにより、対象部品に決定されている表示部品が、優先順位の最も高い位置に表示されるので、ユーザーが操作の対象とする表示部品を、表示部品が配置される位置で示すことができる。   In step S54, the arrangement of one or more display components included in the operation screen is changed, and the process proceeds to step S55. The arrangement of one or more display components is changed so that the display component determined as the target component becomes the highest priority position with the highest priority. As a result, the display component determined as the target component is displayed at the highest priority position, so that the display component to be operated by the user can be indicated by the position where the display component is arranged.

ステップS55においては、対象部品と候補部分とに指示画像を表示し、処理を操作支援処理に戻す。例えば、対象部品と候補部分とを結ぶ線を指示画像として表示部161に表示する。また、対象部品の近傍および候補部分の近傍に同一の画像を指示画像として配置し、表示部161に表示する。例えば、対象部品を囲む円と、候補部分を囲む円とを指示画像として表示部161に表示する。これにより、指示画像が表示されるので、端末画像中の候補部分と、操作画面中の表示部品とが関連することをユーザーに通知することができる。   In step S55, the instruction image is displayed on the target part and the candidate part, and the process returns to the operation support process. For example, a line connecting the target part and the candidate portion is displayed on the display unit 161 as an instruction image. Further, the same image is arranged as an instruction image in the vicinity of the target part and in the vicinity of the candidate portion, and is displayed on the display unit 161. For example, a circle surrounding the target part and a circle surrounding the candidate part are displayed on the display unit 161 as instruction images. Thereby, since the instruction image is displayed, it is possible to notify the user that the candidate portion in the terminal image is related to the display component in the operation screen.

図11は、操作受付処理の流れの一例を示すフローチャートである。操作受付処理は、図8のステップS09において実行される処理である。操作受付処理が実行される前の段階で、ユーザーにより入力される操作が受け付けられている。図11を参照して、CPU111は、ステップS71において、操作の種類によって処理を分岐する。ユーザーにより入力される操作が設定値を設定する設定値設定操作ならば処理をステップS72に進め、ユーザーにより入力される操作が操作画面を別の操作画面に切り換える画面遷移操作ならば処理をステップS74に進め、ユーザーにより入力される操作が処理の実行を指示する実行指示操作ならば処理をステップS77に進める。   FIG. 11 is a flowchart illustrating an example of the flow of the operation reception process. The operation acceptance process is a process executed in step S09 in FIG. An operation input by the user is received at a stage before the operation receiving process is executed. Referring to FIG. 11, CPU 111 branches the process depending on the type of operation in step S <b> 71. If the operation input by the user is a set value setting operation for setting a set value, the process proceeds to step S72. If the operation input by the user is a screen transition operation for switching the operation screen to another operation screen, the process is performed in step S74. If the operation input by the user is an execution instruction operation for instructing execution of the process, the process proceeds to step S77.

ステップS72においては、設定値設定操作により定まる設定値を受け付け、処理をステップS73に進める。ステップS73においては、ステップS72において受け付けられた設定値を設定し、処理を操作支援処理に戻す。設定値が設定される場合、表示部161に表示されている操作画面中で、設定値が入力される領域に、ステップS72において受け付けられた設定値が表示される。   In step S72, the setting value determined by the setting value setting operation is received, and the process proceeds to step S73. In step S73, the setting value accepted in step S72 is set, and the process returns to the operation support process. When the set value is set, the set value received in step S72 is displayed in the area where the set value is input in the operation screen displayed on the display unit 161.

ステップS74においては、画面遷移操作により特定される操作画面を決定する。画面遷移操作は、例えば、操作画面に含まれる画面遷移ボタンがユーザーにより指示される場合に受け付ける。画面遷移ボタンは、操作画面に関連付けられている。この場合は、ユーザーにより指示された画面遷移ボタンに関連付けられた操作画面を決定する。ステップS75においては、ステップS74において決定された操作画面を、表示部161の第1領域に表示し、処理を操作支援処理に戻す。   In step S74, the operation screen specified by the screen transition operation is determined. The screen transition operation is accepted when, for example, a screen transition button included in the operation screen is instructed by the user. The screen transition button is associated with the operation screen. In this case, the operation screen associated with the screen transition button designated by the user is determined. In step S75, the operation screen determined in step S74 is displayed in the first area of display unit 161, and the process returns to the operation support process.

ステップS76においては、実行指示操作により特定される処理を、設定値に従って実行し、処理を操作支援処理に戻す。   In step S76, the process specified by the execution instruction operation is executed according to the set value, and the process is returned to the operation support process.

図12は、MFPに表示される画像の一例を示す第1の図である。図12は、MFP100がスマートフォン200と通信を開始する前の状態で表示される画像を示す。図12を参照して、表示部161は、第1領域351と、第2領域353とを含む。第1領域351に操作画面311が表示され、第2領域353に通知画面355が表示される。操作画面311は、別の複数の操作画面にそれぞれ関連付けられた複数の遷移ボタンを含む。例えば、「ファックス」が表された遷移ボタンは、ファクシミリ番号を設定する操作画面に関連付けられ、「E−mail」が表された遷移ボタンは、電子メールアドレスを設定する操作画面に関連付けられる。   FIG. 12 is a first diagram illustrating an example of an image displayed on the MFP. FIG. 12 shows an image displayed in a state before MFP 100 starts communication with smartphone 200. Referring to FIG. 12, display unit 161 includes a first region 351 and a second region 353. An operation screen 311 is displayed in the first area 351, and a notification screen 355 is displayed in the second area 353. The operation screen 311 includes a plurality of transition buttons respectively associated with another plurality of operation screens. For example, a transition button representing “fax” is associated with an operation screen for setting a facsimile number, and a transition button representing “E-mail” is associated with an operation screen for setting an e-mail address.

第2領域353に表示される通知画面355は、モバイル連携が可能であることをユーザーに通知する画面であり、アンテナ領域171Aに配置された目印画像363を含む。目印画像363はNFCアンテナ171の位置を示す目印である。ユーザーは、スマートフォン200をMFP100と連携させるために、スマートフォン200を目印画像363が表示されている位置に近づける操作をすればよいので、スマートフォン200をMFP100と連携させるための操作が容易となる。   The notification screen 355 displayed in the second region 353 is a screen for notifying the user that mobile cooperation is possible, and includes a landmark image 363 arranged in the antenna region 171A. A mark image 363 is a mark indicating the position of the NFC antenna 171. In order to link the smartphone 200 with the MFP 100, the user only needs to perform an operation of bringing the smartphone 200 close to the position where the landmark image 363 is displayed. Therefore, an operation for linking the smartphone 200 with the MFP 100 is facilitated.

図13は、MFPに表示される画像の一例を示す第2の図である。図13は、MFP100がスマートフォン200と通信している間の状態で表示される画像を示す。図13を参照して、表示部161に図12に示した画像が表示されている状態で、スマートフォン200が目印画像363の位置に近づいた後に表示される画像を示している。図13を参照して、表示部161の第1領域351に、操作画面311が表示され、第2領域に端末画像421が表示される。操作画面311は、図12に示した第1領域351に表示される画像と同じである。端末画像421は、スマートフォン200の表示部206に表示されている画像と同じ画像である。端末画像421は、文字列として「コピー機の操作を支援します。音声で入力してください。」を含む。   FIG. 13 is a second diagram illustrating an example of an image displayed on the MFP. FIG. 13 shows an image displayed while MFP 100 is communicating with smartphone 200. Referring to FIG. 13, an image displayed after smartphone 200 approaches the position of landmark image 363 in a state where the image shown in FIG. 12 is displayed on display unit 161 is shown. Referring to FIG. 13, operation screen 311 is displayed in first area 351 of display unit 161, and terminal image 421 is displayed in the second area. The operation screen 311 is the same as the image displayed in the first area 351 shown in FIG. The terminal image 421 is the same image as the image displayed on the display unit 206 of the smartphone 200. The terminal image 421 includes a character string “supports the operation of the copier. Please input by voice”.

図14は、MFPに表示される画像の一例を示す第3の図である。図14では、表示部161に図13に示した画像が表示されている状態で、スマートフォン200に表示される画面が変化する場合に、表示される画面である。図14を参照して、表示部161の第1領域351に、操作画面311が表示され、第2領域に端末画像431が表示される。操作画面311は、図12に示した第1領域351に表示される画像と同じである。端末画像431は、「ボックスを開きます。」の文字列を含む。この例では、ユーザーがスマートフォン200に、操作の支援を要求する言葉として、「ボックス」を音声で入力する場合に、スマートフォン200がボックスの操作の手順を説明するための支援情報として「ボックスを開きます。」の文字列を表示する場合である。   FIG. 14 is a third diagram illustrating an example of an image displayed on the MFP. FIG. 14 is a screen that is displayed when the screen displayed on the smartphone 200 changes while the image shown in FIG. 13 is displayed on the display unit 161. Referring to FIG. 14, operation screen 311 is displayed in first area 351 of display unit 161, and terminal image 431 is displayed in the second area. The operation screen 311 is the same as the image displayed in the first area 351 shown in FIG. The terminal image 431 includes a character string “Open box”. In this example, when the user inputs “box” by voice to the smartphone 200 as a word for requesting operation support, the smartphone 200 opens “open box as support information for explaining the operation procedure of the box. Is displayed.

また、第1領域351に表示される操作画面中で、ボックスの文字が表されたボタンの下側に端末画像を縮小した画像431Aが重畳して表示される。これにより、ユーザーは、ボックスの文字が表されたボタンが、端末画像に含まれる「ボックスを開きます。」の文字列に対応する表示部品であることを知ることができ、ボックスを開く操作を入力することができる。   In addition, in the operation screen displayed in the first area 351, an image 431A obtained by reducing the terminal image is displayed superimposed on the lower side of the button representing the box characters. As a result, the user can know that the button displaying the text of the box is a display component corresponding to the text string “Open the box” included in the terminal image, and perform the operation to open the box. Can be entered.

図15は、MFPに表示される画像の一例を示す第4の図である。図15では、表示部161に図13に示した画像が表示されている状態で、スマートフォン200に表示される画面が変化する場合に、表示される画面である。図15を参照して、表示部161の第1領域351に、操作画面311が表示され、第2領域に端末画像431が表示される。操作画面311は、図12に示した第1領域351に表示される画像と同じである。端末画像431は、「ボックスを開きます。」の文字列を含む。この例では、ユーザーがスマートフォン200に、操作の支援を要求する言葉として、「ボックス」を音声で入力する場合に、スマートフォン200がボックスの操作の手順を説明するための支援情報として「ボックスを開きます。」の文字列を表示する場合である。   FIG. 15 is a fourth diagram illustrating an example of an image displayed on the MFP. FIG. 15 is a screen that is displayed when the screen displayed on the smartphone 200 changes while the image shown in FIG. 13 is displayed on the display unit 161. Referring to FIG. 15, operation screen 311 is displayed in first area 351 of display unit 161, and terminal image 431 is displayed in the second area. The operation screen 311 is the same as the image displayed in the first area 351 shown in FIG. The terminal image 431 includes a character string “Open box”. In this example, when the user inputs “box” by voice to the smartphone 200 as a word for requesting operation support, the smartphone 200 opens “open box as support information for explaining the operation procedure of the box. Is displayed.

また、第1領域351に表示される操作画面において、ボックスの文字が表されたボタンが左上の最も優先順位の高い位置に配置が変更されている。具体的には、図13においては、左から右に、ファックスの文字が表されたボタン、E−mailの文字が表されたボタン、ボックスの文字が表されたボタンの順に配置されていたものが、図15においては、左から右に、ボックスの文字が表されたボタン、ファックスの文字が表されたボタン、E−mailの文字が表されたボタンの順に配置される。   In addition, in the operation screen displayed in the first area 351, the arrangement of the button representing the box character is changed to the position with the highest priority in the upper left. Specifically, in FIG. 13, from left to right, a button representing a fax character, a button representing an E-mail character, and a button representing a box character are arranged in this order. However, in FIG. 15, from left to right, a button representing a box character, a button representing a fax character, and a button representing an E-mail character are arranged in this order.

これにより、ユーザーは、ボックスの文字が表されたボタンが、端末画像に含まれる「ボックスを開きます。」の文字列に対応する表示部品であることを知ることができ、ボックスを開く操作を入力することができる。   As a result, the user can know that the button displaying the text of the box is a display component corresponding to the text string “Open the box” included in the terminal image, and perform the operation to open the box. Can be entered.

図16は、MFPに表示される画像の一例を示す第5の図である。図16では、表示部161に図13に示した画像が表示されている状態で、スマートフォン200に表示される画面が変化する場合に、表示される画面である。図15を参照して、表示部161の第1領域351に、操作画面311が表示され、第2領域に端末画像431が表示される。操作画面311は、図12に示した第1領域351に表示される画像と同じである。端末画像431は、「ボックスを開きます。」の文字列を含む。この例では、ユーザーがスマートフォン200に、操作の支援を要求する言葉として、「ボックス」を音声で入力する場合に、スマートフォン200がボックスの操作の手順を説明するための支援情報として「ボックスを開きます。」の文字列を表示する場合である。   FIG. 16 is a fifth diagram illustrating an example of an image displayed on the MFP. FIG. 16 is a screen that is displayed when the screen displayed on the smartphone 200 changes while the image shown in FIG. 13 is displayed on the display unit 161. Referring to FIG. 15, operation screen 311 is displayed in first area 351 of display unit 161, and terminal image 431 is displayed in the second area. The operation screen 311 is the same as the image displayed in the first area 351 shown in FIG. The terminal image 431 includes a character string “Open box”. In this example, when the user inputs “box” by voice to the smartphone 200 as a word for requesting operation support, the smartphone 200 opens “open box as support information for explaining the operation procedure of the box. Is displayed.

また、第1領域351に表示される操作画面311に表示されているボックスの文字が表されたボタンと、第2領域353に表示されている端末画像431に含まれる「ボックス」の文字列と、を結ぶ指示画像435が表示されている。これにより、ユーザーは、ボックスの文字が表されたボタンが、端末画像に含まれる「ボックスを開きます。」の文字列に対応する表示部品であることを知ることができ、ボックスを開く操作を入力することができる。   In addition, a button representing a box character displayed on the operation screen 311 displayed in the first area 351, a character string of “box” included in the terminal image 431 displayed in the second area 353, and , An instruction image 435 is displayed. As a result, the user can know that the button displaying the text of the box is a display component corresponding to the text string “Open the box” included in the terminal image, and perform the operation to open the box. Can be entered.

図17は、MFPに表示される画像の一例を示す第6の図である。図17では、表示部161に図13に示した画像が表示されている状態で、スマートフォン200に表示される画面が変化する場合に、表示される画面である。図17を参照して、表示部161の第1領域351に、操作画面311が表示され、第2領域に端末画像441が表示される。操作画面311は、図12に示した第1領域351に表示される画像と同じである。端末画像441は、「ページインジケーターが表示されている場合は、ページ切換キーを使ってページを切り換えます。」、「前ページ」および「次ページ」の文字列と、前ページにページを切り換えるためのページインジケーターの画像443Aと、次ページにページを切り換えるためのページインジケーターの画像445Aと、を含む。   FIG. 17 is a sixth diagram illustrating an example of an image displayed on the MFP. FIG. 17 is a screen that is displayed when the screen displayed on the smartphone 200 changes while the image shown in FIG. 13 is displayed on the display unit 161. Referring to FIG. 17, operation screen 311 is displayed in first area 351 of display unit 161, and terminal image 441 is displayed in the second area. The operation screen 311 is the same as the image displayed in the first area 351 shown in FIG. In the terminal image 441, “if the page indicator is displayed, use the page switching key to switch pages.”, “Previous page”, “Next page” character strings, and to switch the page to the previous page Page indicator image 443A and a page indicator image 445A for switching the page to the next page.

この例では、ユーザーがスマートフォン200に、操作の支援を要求する言葉として、「ページ切り換え」を音声で入力する場合に、スマートフォン200がボックスの操作の手順を説明するための支援情報を表示する場合である。   In this example, when the user inputs “page switching” by voice to the smartphone 200 as a word for requesting operation support, the smartphone 200 displays support information for explaining a procedure for operating the box. It is.

また、第1領域351に表示される操作画面311に表示されているページインジケーター443と、次ページにページを切り換えるためのページインジケーター445とが表示される。さらに、操作画面311のページインジケーター443を囲む指示画像447と、端末画像441に含まれるページインジケーターの画像443Aを囲む指示画像447Aと、操作画面311のページインジケーター445を囲む指示画像449と、端末画像441に含まれるページインジケーターの画像445Aを囲む指示画像449Aとが表示される。指示画像447および指示画像447Aは形状が同じであり、指示画像449および指示画像449Aは形状が同じである。指示画像447と指示画像449とは形状が異なる。これにより、ユーザーは、ページインジケーター443が、端末画像に含まれるページインジケーターの画像443Aに対応する表示部品であることを知ることができ、操作画面において前ページにページを切り換える操作を入力することができる。また、ユーザーは、ページインジケーター445が、端末画像に含まれるページインジケーターの画像445Aに対応する表示部品であることを知ることができ、操作画面において次ページにページを切り換える操作を入力することができる。   In addition, a page indicator 443 displayed on the operation screen 311 displayed in the first area 351 and a page indicator 445 for switching the page to the next page are displayed. Further, an instruction image 447 surrounding the page indicator 443 of the operation screen 311, an instruction image 447A surrounding the page indicator image 443A included in the terminal image 441, an instruction image 449 surrounding the page indicator 445 of the operation screen 311, and a terminal image An instruction image 449A surrounding a page indicator image 445A included in 441 is displayed. The instruction image 447 and the instruction image 447A have the same shape, and the instruction image 449 and the instruction image 449A have the same shape. The instruction image 447 and the instruction image 449 have different shapes. Thereby, the user can know that the page indicator 443 is a display component corresponding to the page indicator image 443A included in the terminal image, and can input an operation of switching the page to the previous page on the operation screen. it can. Further, the user can know that the page indicator 445 is a display component corresponding to the page indicator image 445A included in the terminal image, and can input an operation of switching the page to the next page on the operation screen. .

以上説明したように、本実施の形態におけるMFP100は、画像形成装置として機能し、携帯装置として機能するスマートフォン200から表示部206に表示されている端末画像を取得し、端末画像に含まれる文字情報および/または画像に基づいて、操作画面の内容を変更する。このため、スマートフォン200の表示されている端末画像に含まれる情報に操作画面の内容を合わせることができる。スマートフォン200でユーザーがMFP100の操作を支援するアプリケーションプログラムが実行されている場合、スマートフォン200でMFP100の操作を支援する内容を、MFP100の操作画面に表示することができる。その結果、MFP100に表示される情報のみでMFP100の操作を支援することできる。   As described above, MFP 100 according to the present embodiment functions as an image forming apparatus, acquires a terminal image displayed on display unit 206 from smartphone 200 functioning as a mobile device, and character information included in the terminal image. And / or the content of the operation screen is changed based on the image. For this reason, the content of the operation screen can be matched with the information included in the terminal image displayed on the smartphone 200. When an application program that supports the operation of MFP 100 by the user is executed on smartphone 200, the content that supports the operation of MFP 100 on smartphone 200 can be displayed on the operation screen of MFP 100. As a result, the operation of MFP 100 can be supported only by the information displayed on MFP 100.

また、MFP100は、端末画像に含まれる情報に基づいて、ユーザーにより入力される予定の操作の対象となる表示部品を対象部品として予測し、対象部品に予測された表示部品を強調して表示する。このため、スマートフォン200で案内される操作をユーザーに通知することができる。   Further, based on information included in the terminal image, the MFP 100 predicts a display component that is a target operation to be input by the user as a target component, and highlights and displays the predicted display component on the target component. . For this reason, a user can be notified of operation guided with smart phone 200.

また、MFP100は、端末画像に含まれる文字情報に基づいて、ユーザーにより入力される予定の操作の対象となる表示部品を予測するので、表示部品を予測する精度を高めることができる。特に、MFP100は、文字情報に含まれる文字列を、表示部品に対して予め関連付けられた予約語と比較するので、表示部品を予測する精度を高めることができる。また、MFP100は、文字情報に含まれる複数の文字列のうちから出現する頻度の高い文字列に基づいて、表示部品を予測するので、表示部品を予測する精度を高めることができる。また、MFP100は、端末画像に含まれる画像と類似する表示部品を対象部品として予測するので、表示部品を予測する精度を高めることができる。   In addition, since MFP 100 predicts a display component that is a target of an operation scheduled to be input by the user based on character information included in the terminal image, the accuracy of predicting the display component can be improved. In particular, since the MFP 100 compares the character string included in the character information with a reserved word associated with the display component in advance, the accuracy of predicting the display component can be improved. Further, since MFP 100 predicts a display component based on a character string that frequently appears from among a plurality of character strings included in character information, the accuracy of predicting the display component can be improved. Further, since MFP 100 predicts a display component similar to the image included in the terminal image as the target component, the accuracy of predicting the display component can be increased.

また、MFP100は、端末画像が複数の表示部品とそれぞれ類似する複数の画像を含む場合、複数の画像のうち頻度の高い画像と類似する表示部品を対象部品として予測するので、表示部品を予測する精度を高めることができる。   Further, when the terminal image includes a plurality of images that are respectively similar to a plurality of display components, MFP 100 predicts a display component that is similar to a high-frequency image among the plurality of images as a target component, and therefore predicts a display component. Accuracy can be increased.

また、MFP100は、予測された操作を受け付けるための表示部品の近傍に端末画像を表示するので、予測された表示部品の操作画面における位置を通知することができる。また、MFP100は、対象部品が予測される前の段階で表示手段に操作画面と端末画像とが表示されている場合、端末画像を表示する位置を移動させるので、端末画像の移動後の位置で、予測された表示部品を通知することができる。特に、MFP100は、対象部品に予測された表示部品を、他の表示部品よりも優先される位置に移動させるので、操作画面における優先される位置で、表示部品を通知することができる。   Further, since the MFP 100 displays the terminal image in the vicinity of the display component for accepting the predicted operation, the MFP 100 can notify the position of the predicted display component on the operation screen. Further, when the operation screen and the terminal image are displayed on the display unit before the target part is predicted, the MFP 100 moves the position where the terminal image is displayed. The predicted display component can be notified. In particular, since the MFP 100 moves the display component predicted as the target component to a position that is prioritized over other display components, the MFP 100 can notify the display component at a priority position on the operation screen.

また、MFP100は、対象部品に予測された表示部品と、端末画像に含まれ、表示部品を予測する元になった元情報が表示される領域とを強調表示するので、表示部品と元情報との関係を通知することができる。特に、対象部品に予測された表示部品と、元情報が表示される領域とを関連付ける指示画像を表示するので、表示部品をユーザーに通知するとともに、表示部品に関連する元情報を通知することができる。また、表示部品が対象部品として予測されない場合は、端末画像を表示しない、または、端末画像が表示されている場合は端末画像のサイズを縮小するので、端末画像に表示部品に関連する情報が存在しないことを通知することができる。   Further, since the MFP 100 highlights the display component predicted as the target component and the area where the original information included in the terminal image and from which the display component is predicted is displayed, the display component and the original information are displayed. Can be notified of the relationship. In particular, since an instruction image for associating the display component predicted for the target component with the area where the original information is displayed is displayed, it is possible to notify the user of the display component and the original information related to the display component. it can. If the display component is not predicted as the target component, the terminal image is not displayed, or if the terminal image is displayed, the terminal image is reduced in size, so the terminal image has information related to the display component. You can be notified that you will not.

なお、上述した実施の形態においては、画像処理装置の一例としてMFP100を例に説明したが、図8〜図11に示した操作支援処理をMFP100に実行させる操作支援方法、または、その操作支援方法をMFP100を制御するCPU111に実行させる操作支援プログラムとして発明を捉えることができるのは言うまでもない。   In the above-described embodiment, the MFP 100 has been described as an example of an image processing apparatus. However, the operation support method that causes the MFP 100 to execute the operation support process illustrated in FIGS. Needless to say, the present invention can be understood as an operation support program that causes the CPU 111 that controls the MFP 100 to execute the above.

今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

<付記>
(1) 前記指示画像は、前記表示部品と、前記元情報が表示される領域とを結ぶ線である、請求項12に記載の画像処理装置。
(2) 前記指示画像は、前記表示部品および前記元情報が表示される領域それぞれの近傍に配置される同一の画像である、請求項12に記載の画像処理装置。
(3) 前記端末画像は、ストリームデータである、請求項1〜13のいずれかに記載の画像処理装置。
<Appendix>
(1) The image processing apparatus according to claim 12, wherein the instruction image is a line connecting the display component and a region where the original information is displayed.
(2) The image processing apparatus according to claim 12, wherein the instruction image is the same image arranged in the vicinity of each of the areas where the display component and the original information are displayed.
(3) The image processing apparatus according to any one of claims 1 to 13, wherein the terminal image is stream data.

1 情報システム、3 ネットワーク、5 無線局、100 MFP、110 メイン回路、111 CPU、112 通信I/F部、113 ROM、114 RAM、115 HDD、116 ファクシミリ部、117 外部記憶装置、118 CD−ROM、119 NFC通信部、120 自動原稿搬送装置、130 原稿読取部、140 画像形成部、150 給紙部、155 後処理部、160 操作パネル、161 表示部、163 操作部、165 タッチパネル、167 ハードキー部、171 NFCアンテナ、171A アンテナ領域、173 NFC通信制御部、175 検出回路、200 スマートフォン、201 CPU、202 カメラ、203 フラッシュメモリ、204 無線通信部、205 通話部、206 表示部、207 操作部、207A メインキー、207B タッチパネル、209 通信部、211 外部記憶装置、51 画像取得部、53 解析部、55 操作支援部、57 端末画像表示部、59 操作受付部、61 操作画面表示部、63 設定値決定部、65 処理実行部、67 文字抽出部、69 画像抽出部、71 予測部、73 比較部、75 強調表示部、81 近傍配置部、83 配置変更部、85 関連表示部、87 縮小部、311 操作画面、351 第1領域、353 第2領域、421,431,441 端末画像、443,445 ページインジケーター、435,447,447A,449,449A 指示画像。   1 Information system, 3 networks, 5 radio stations, 100 MFP, 110 main circuit, 111 CPU, 112 communication I / F unit, 113 ROM, 114 RAM, 115 HDD, 116 facsimile unit, 117 external storage device, 118 CD-ROM 119 NFC communication unit, 120 automatic document feeder, 130 document reading unit, 140 image forming unit, 150 paper feeding unit, 155 post-processing unit, 160 operation panel, 161 display unit, 163 operation unit, 165 touch panel, 167 hard key , 171 NFC antenna, 171A antenna area, 173 NFC communication control unit, 175 detection circuit, 200 smartphone, 201 CPU, 202 camera, 203 flash memory, 204 wireless communication unit, 205 call unit, 206 display unit, 207 Cropping unit, 207A main key, 207B touch panel, 209 communication unit, 211 external storage device, 51 image acquisition unit, 53 analysis unit, 55 operation support unit, 57 terminal image display unit, 59 operation reception unit, 61 operation screen display unit, 63 setting value determination unit, 65 process execution unit, 67 character extraction unit, 69 image extraction unit, 71 prediction unit, 73 comparison unit, 75 highlight display unit, 81 neighborhood arrangement unit, 83 arrangement change unit, 85 related display unit, 87 Reduction unit, 311 operation screen, 351 first area, 353 second area, 421, 431, 441 terminal image, 443, 445 page indicator, 435, 447, 447A, 449, 449A instruction image.

Claims (15)

携帯装置と通信可能な画像処理装置であって、
操作画面を表示する表示手段と、
前記携帯装置から前記携帯装置により表示されている端末画像を取得する画像取得手段と、
取得された前記端末画像に含まれる情報に基づいて、前記操作画面の内容を変更する操作支援手段と、を備えた画像処理装置。
An image processing apparatus capable of communicating with a portable device,
Display means for displaying an operation screen;
Image obtaining means for obtaining a terminal image displayed by the portable device from the portable device;
An image processing apparatus comprising: an operation support unit that changes the content of the operation screen based on information included in the acquired terminal image.
前記操作画面は、ユーザーにより入力される操作を受け付けるための表示部品を含み、
前記操作支援手段は、前記端末画像に含まれる情報に基づいて、ユーザーにより入力される予定の前記操作の対象となる前記表示部品を対象部品として予測する予測手段と、
予測された前記対象部品を強調して表示する強調表示手段と、を含む、請求項1に記載の画像処理装置。
The operation screen includes a display component for receiving an operation input by a user,
The operation support means, based on information included in the terminal image, a prediction means for predicting the display component that is a target of the operation scheduled to be input by a user as a target component;
The image processing apparatus according to claim 1, further comprising: highlighting means for highlighting and displaying the predicted target part.
前記予測手段は、前記端末画像に含まれる文字情報に基づいて、前記表示部品を予測する、請求項2に記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the predicting unit predicts the display component based on character information included in the terminal image. 前記予測手段は、前記文字情報に含まれる文字列を、前記表示部品に対して予め関連付けられた予約語と比較する、請求項3に記載の画像処理装置。   The image processing apparatus according to claim 3, wherein the predicting unit compares a character string included in the character information with a reserved word associated with the display component in advance. 前記予測手段は、前記文字情報に含まれる複数の文字列のうちから出現する頻度の高い文字列に基づいて、前記表示部品を予測する、請求項4に記載の画像処理装置。   The image processing apparatus according to claim 4, wherein the predicting unit predicts the display component based on a character string that appears frequently from a plurality of character strings included in the character information. 前記予測手段は、前記端末画像に含まれる画像と類似する前記表示部品を前記対象部品として予測する、請求項2〜5のいずれかに記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the prediction unit predicts the display component similar to an image included in the terminal image as the target component. 前記予測手段は、前記端末画像が複数の前記表示部品とそれぞれ類似する複数の前記画像を含む場合、複数の前記画像のうち頻度の高い前記画像と類似する前記表示部品を前記対象部品として予測する、請求項6に記載の画像処理装置。   When the terminal image includes a plurality of the images similar to the plurality of display components, the prediction means predicts the display component similar to the frequently used image among the plurality of images as the target component. The image processing apparatus according to claim 6. 前記強調表示手段は、予測された前記操作を受け付けるための前記表示部品の近傍に前記端末画像を表示する、請求項2〜7のいずれかに記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the highlighting unit displays the terminal image in the vicinity of the display component for receiving the predicted operation. 前記強調表示手段は、前記対象部品が予測される前の段階で前記表示手段に前記操作画面と前記端末画像とが表示されている場合、前記端末画像を表示する位置を移動させる、請求項8に記載の画像処理装置。   The highlighting means moves a position where the terminal image is displayed when the operation screen and the terminal image are displayed on the display means before the target part is predicted. An image processing apparatus according to 1. 前記強調表示手段は、前記対象部品に予測された前記表示部品を、他の前記表示部品よりも優先される位置に移動させる、請求項2〜7のいずれかに記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the highlighting unit moves the display component predicted for the target component to a position that is prioritized over the other display components. 前記表示手段は、前記操作画面に加えて前記端末画像を表示し、
前記強調表示手段は、前記対象部品に予測された前記表示部品と、前記端末画像に含まれ、前記対象部品を予測する元になった元情報が表示される領域とを強調表示する、請求項2〜7のいずれかに記載の画像処理装置。
The display means displays the terminal image in addition to the operation screen,
The highlighting means highlights the display component predicted for the target component and a region in which the original information included in the terminal image and from which the target component is predicted is displayed. The image processing apparatus according to any one of 2 to 7.
前記強調表示手段は、前記対象部品に予測された前記表示部品と、前記元情報が表示される領域とを関連付ける指示画像を前記表示手段に表示する、請求項11に記載の画像処理装置。   The image processing apparatus according to claim 11, wherein the highlighting unit displays an instruction image associating the display component predicted for the target component with an area where the original information is displayed on the display unit. 前記強調表示手段は、前記表示部品が前記対象部品として予測されない場合は、前記端末画像を表示しない、または、前記端末画像が表示されている場合は前記端末画像のサイズを縮小する、請求項8〜12のいずれかに記載の画像処理装置。   The highlighting means does not display the terminal image when the display component is not predicted as the target component, or reduces the size of the terminal image when the terminal image is displayed. The image processing apparatus in any one of -12. 携帯装置から前記携帯装置により表示されている端末画像を取得する画像取得ステップと、
取得された前記端末画像に含まれる情報に基づいて、表示手段に表示されている操作画面の内容を変更する操作支援ステップと、を画像処理装置に実行させる操作支援方法。
An image obtaining step for obtaining a terminal image displayed by the portable device from a portable device;
An operation support method for causing an image processing apparatus to execute an operation support step of changing a content of an operation screen displayed on a display unit based on information included in the acquired terminal image.
画像処理装置を制御するコンピューターで実行される操作支援プログラムであって、
携帯装置から前記携帯装置により表示されている端末画像を取得する画像取得ステップと、
取得された前記端末画像に含まれる情報に基づいて、表示手段に表示されている操作画面の内容を変更する操作支援ステップと、を前記コンピューターに実行させる操作支援プログラム。
An operation support program executed by a computer that controls the image processing apparatus,
An image obtaining step for obtaining a terminal image displayed by the portable device from a portable device;
An operation support program for causing the computer to execute an operation support step of changing a content of an operation screen displayed on a display unit based on information included in the acquired terminal image.
JP2018076360A 2018-04-11 2018-04-11 Image processing device, operation support method, and operation support program Pending JP2019186766A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018076360A JP2019186766A (en) 2018-04-11 2018-04-11 Image processing device, operation support method, and operation support program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018076360A JP2019186766A (en) 2018-04-11 2018-04-11 Image processing device, operation support method, and operation support program

Publications (1)

Publication Number Publication Date
JP2019186766A true JP2019186766A (en) 2019-10-24

Family

ID=68337721

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018076360A Pending JP2019186766A (en) 2018-04-11 2018-04-11 Image processing device, operation support method, and operation support program

Country Status (1)

Country Link
JP (1) JP2019186766A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11765286B2 (en) 2019-11-08 2023-09-19 Canon Kabushiki Kaisha Image forming apparatus capable of wireless communication with portable terminal and having a light emitting portion to indicate the wireless communication is enabled

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007096962A (en) * 2005-09-29 2007-04-12 Saxa Inc Telephony instrument
JP2012029008A (en) * 2010-07-22 2012-02-09 Sharp Corp Image forming apparatus
JP2012095139A (en) * 2010-10-27 2012-05-17 Kyocera Mita Corp Operation device and operation method
JP2014146940A (en) * 2013-01-29 2014-08-14 Konica Minolta Inc Information processing system, information processing device, information processing terminal and program
JP2017174050A (en) * 2016-03-23 2017-09-28 コニカミノルタ株式会社 Screen display system, screen display method, image processing apparatus, and screen display program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007096962A (en) * 2005-09-29 2007-04-12 Saxa Inc Telephony instrument
JP2012029008A (en) * 2010-07-22 2012-02-09 Sharp Corp Image forming apparatus
JP2012095139A (en) * 2010-10-27 2012-05-17 Kyocera Mita Corp Operation device and operation method
JP2014146940A (en) * 2013-01-29 2014-08-14 Konica Minolta Inc Information processing system, information processing device, information processing terminal and program
JP2017174050A (en) * 2016-03-23 2017-09-28 コニカミノルタ株式会社 Screen display system, screen display method, image processing apparatus, and screen display program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11765286B2 (en) 2019-11-08 2023-09-19 Canon Kabushiki Kaisha Image forming apparatus capable of wireless communication with portable terminal and having a light emitting portion to indicate the wireless communication is enabled
JP7414476B2 (en) 2019-11-08 2024-01-16 キヤノン株式会社 image forming device

Similar Documents

Publication Publication Date Title
JP5928436B2 (en) Remote control device, remote operation device, screen transmission control method, screen display control method, screen transmission control program, and screen display control program
JP5895910B2 (en) Screen generation apparatus, screen generation method, and screen generation program
JP2015118502A (en) Screen generation device, remote operation device, remote control device, screen generation method, and screen generation program
JP2007310650A (en) Information processing apparatus
JP6079750B2 (en) Image forming apparatus, printing method, and browsing program
JP5532037B2 (en) Cooperation system, portable information device, cooperation method, and cooperation program
JP5879889B2 (en) Image processing apparatus, linkage method, and linkage program
JP6769243B2 (en) Cooperation system, information processing device, cooperation method and cooperation program
US10178250B2 (en) Cooperation system, information processing apparatus, cooperation method and non-transitory computer-readable recording medium encoded with cooperation program
JP6889393B2 (en) Image processing device, setting value setting method and setting value setting program
JP6627611B2 (en) Remote control device, remote control method, and remote control program
JP2019186766A (en) Image processing device, operation support method, and operation support program
JP5790340B2 (en) Image forming apparatus, image forming method, image forming program, and image forming system
JP6344233B2 (en) Image forming system, image forming apparatus, remote control method, and remote control program
JP6464751B2 (en) Image forming system, image forming apparatus, remote control method, and remote control program
JP6176233B2 (en) Remote control device, remote control method, and remote control program
JP6561495B2 (en) Image processing apparatus, remote control system, remote control method, and remote control program
JP2018107510A (en) Information processing device, coordination method, and coordination program
JP2017204723A (en) Remote control system, image processing apparatus, remote control method, and remote control program
JP6417762B2 (en) Apparatus control system, image processing apparatus, apparatus control method, and apparatus control program
JP2011175481A (en) Electronic apparatus, character conversion method and character conversion program
JP2019033523A (en) Device control system, image processing device, device control method and device control program
JP2018067891A (en) Coordination system, information processing device, coordination method, and coordination program
JP2017092603A (en) Image processing apparatus, remote control method and remote control program
JP2015207913A (en) Remote control system, image processing device, remote control method, and remote control program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210917

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211012

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220405