JP6855757B2 - Image processing systems, mobile terminal devices and programs - Google Patents

Image processing systems, mobile terminal devices and programs Download PDF

Info

Publication number
JP6855757B2
JP6855757B2 JP2016216872A JP2016216872A JP6855757B2 JP 6855757 B2 JP6855757 B2 JP 6855757B2 JP 2016216872 A JP2016216872 A JP 2016216872A JP 2016216872 A JP2016216872 A JP 2016216872A JP 6855757 B2 JP6855757 B2 JP 6855757B2
Authority
JP
Japan
Prior art keywords
guidance
user
image
mobile terminal
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016216872A
Other languages
Japanese (ja)
Other versions
JP2018078354A (en
Inventor
貴信 杉山
貴信 杉山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2016216872A priority Critical patent/JP6855757B2/en
Publication of JP2018078354A publication Critical patent/JP2018078354A/en
Application granted granted Critical
Publication of JP6855757B2 publication Critical patent/JP6855757B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像処理システム、携帯端末装置及びプログラムに関し、特に画像処理システムにおいてエラーが発生した場合に携帯端末装置がユーザーに対してエラーを解除するための案内を行う技術に関する。 The present invention relates to an image processing system, a mobile terminal device and a program, and more particularly to a technique in which the mobile terminal device guides a user to cancel an error when an error occurs in the image processing system.

従来、MFP(Multifunction Peripherals)などの画像処理装置と、ユーザーが所持する携帯端末装置とが連携するシステムにおいて、画像処理装置に紙詰まりなどのエラーが発生した場合に、画像処理装置が携帯端末装置に対して音声案内と画像案内とを含む案内情報を送信し、携帯端末装置がユーザーに対してエラーを解除するための操作を音声と画像との双方で案内する技術が知られている(例えば特許文献1)。 Conventionally, in a system in which an image processing device such as an MFP (Multifunction Peripherals) and a mobile terminal device owned by a user are linked, when an error such as a paper jam occurs in the image processing device, the image processing device is a mobile terminal device. There is known a technique of transmitting guidance information including voice guidance and image guidance to the user, and guiding the operation of the mobile terminal device to the user in both voice and image (for example). Patent Document 1).

特開2016−139887号公報Japanese Unexamined Patent Publication No. 2016-139878

ところで、画像処理装置で発生するエラーには様々なタイプのエラーが存在する。例えば、ユーザーが片手操作で解除することが可能なエラーや、解除するためにはユーザーが両手操作を行うことが必要となるエラーなどが存在する。エラー解除のために両手操作が必要な場合、ユーザーは携帯端末装置を持ちながら解除操作を行うことができないため、画像案内を見ながら解除操作を進めることは難しい。そのため、両手操作が必要な場合、ユーザーは、画像案内を見ることなく、音声案合だけを頼りにして解除操作を行うことになる。これに対し、片手操作でエラーを解除することが可能な場合、ユーザーは、一方の手で携帯端末装置を持ちながら他方の手で解除操作を行うことができる。この場合、ユーザーは画像案内を見れば操作箇所などを正確に把握することができるため、音声案内は特に必要なものではない。 By the way, there are various types of errors that occur in an image processing device. For example, there are errors that can be canceled by the user with one-handed operation, and errors that require the user to perform two-handed operation in order to cancel. When a two-handed operation is required to clear the error, the user cannot perform the clearing operation while holding the mobile terminal device, so it is difficult to proceed with the clearing operation while looking at the image guidance. Therefore, when a two-handed operation is required, the user will perform the release operation by relying only on the voice combination without looking at the image guidance. On the other hand, when the error can be canceled by one-handed operation, the user can perform the clearing operation with one hand while holding the mobile terminal device. In this case, the voice guidance is not particularly necessary because the user can accurately grasp the operation location and the like by looking at the image guidance.

しかしながら、上述した従来技術は、常に音声と画像との双方による案内を行うようにしているため、携帯端末装置は、ユーザーが画像案内を見ていないときでも画像案内のための処理を実行し、またユーザーが音声案内を必要としないときでも音声案内のための処理を実行する。それ故、上述した従来技術は、ユーザーが行うべき操作などに応じて音声案内と画像案内とを切り替えることができず、携帯端末装置の電力を無駄に消費してしまうという問題があった。 However, since the above-mentioned prior art always provides guidance by both voice and image, the mobile terminal device executes the process for image guidance even when the user is not looking at the image guidance. Moreover, even when the user does not need the voice guidance, the process for the voice guidance is executed. Therefore, the above-mentioned conventional technique has a problem that the voice guidance and the image guidance cannot be switched according to the operation to be performed by the user, and the power of the mobile terminal device is wasted.

本発明は、上記のような従来の問題点を解決するためになされたものであり、ユーザーが行うべき操作などに応じて音声による案内と画像による案内とを切り替えることにより、携帯端末装置の電力消費量を低減できるようにした画像処理システム、携帯端末装置及びプログラムを提供することを目的とするものである。 The present invention has been made to solve the above-mentioned conventional problems, and by switching between voice guidance and image guidance according to an operation to be performed by the user, the power consumption of the mobile terminal device is increased. An object of the present invention is to provide an image processing system, a mobile terminal device, and a program capable of reducing power consumption.

上記目的を達成するため、請求項1に係る発明は、画像処理装置と携帯端末装置とが近
距離通信を行うことが可能な画像処理システムであって、前記画像処理装置は、前記画像処理装置においてエラーが発生したことを検知するエラー検知手段と、前記エラー検知手段によって検知されるエラーを解除するためにユーザーが行うべき操作を特定し、該操作に関する操作情報を生成する操作情報生成手段と、前記操作情報生成手段によって生成される操作情報を前記携帯端末装置へ送信する操作情報送信手段と、を備え、前記携帯端末装置は、前記操作情報送信手段によって送信される操作情報を受信する操作情報受信手段と、前記操作情報受信手段によって受信された操作情報に基づき、ユーザーが行うべき操作を音声又は画像で案内する案内手段と、を備え、前記案内手段は、ユーザーが行うべき操作の種類、又は、ユーザーによる前記携帯端末装置の保持状態に応じて、音声による案内と画像による案内とを切り替えることを特徴とする構成である。
In order to achieve the above object, the invention according to claim 1 is an image processing system capable of performing short-range communication between an image processing device and a mobile terminal device, wherein the image processing device is the image processing device. An error detecting means for detecting the occurrence of an error in the above, and an operation information generating means for specifying an operation to be performed by the user in order to cancel the error detected by the error detecting means and generating operation information related to the operation. An operation information transmitting means for transmitting the operation information generated by the operation information generating means to the mobile terminal device, and the mobile terminal device receives the operation information transmitted by the operation information transmitting means. The information receiving means includes a guidance means for guiding an operation to be performed by the user by voice or an image based on the operation information received by the operation information receiving means, and the guidance means is a type of operation to be performed by the user. Alternatively, the configuration is characterized in that the guidance by voice and the guidance by image are switched according to the holding state of the mobile terminal device by the user.

請求項2に係る発明は、請求項1に記載の画像処理システムにおいて、前記案内手段は、ユーザーが行うべき操作が両手で行う必要のある操作である場合に音声による案内を行い、ユーザーが行うべき操作が片手で行うことが可能な操作である場合に画像による案内を行うことを特徴とする構成である。 The invention according to claim 2 is the image processing system according to claim 1, wherein the guidance means provides voice guidance when the operation to be performed by the user is an operation that needs to be performed by both hands, and the user performs the guidance. The configuration is characterized in that guidance is performed by an image when the operation to be performed is an operation that can be performed with one hand.

請求項3に係る発明は、請求項2に記載の画像処理システムにおいて、前記画像処理装置は、前記操作情報生成手段によって特定されるユーザーが行うべき操作が、両手で行う必要のある操作であるか、又は、片手で行うことが可能な操作であるかを判別する判別手段を更に備え、前記案内手段は、前記判別手段による判別結果に基づいて音声による案内と画像による案内とを切り替えることを特徴とする構成である。 The invention according to claim 3 is the image processing system according to claim 2, wherein the image processing apparatus is an operation that the user specified by the operation information generating means needs to perform an operation with both hands. Further, a discriminating means for discriminating whether the operation can be performed with one hand is further provided, and the guiding means switches between voice guidance and image guidance based on the discriminating result by the discriminating means. It is a characteristic configuration.

請求項4に係る発明は、請求項2に記載の画像処理システムにおいて、前記携帯端末装置は、前記操作情報を解析することによってユーザーが行うべき操作が両手で行う必要のある操作であるか、又は、片手で行うことが可能な操作であるかを判別する判別手段を更に備え、前記案内手段は、前記判別手段による判別結果に基づいて音声による案内と画像による案内とを切り替えることを特徴とする構成である。 The invention according to claim 4 is, in the image processing system according to claim 2, whether the mobile terminal device is an operation that the user should perform by analyzing the operation information must be performed by both hands. Alternatively, it further includes a discriminating means for discriminating whether the operation can be performed with one hand, and the guiding means switches between voice guidance and image guidance based on the discriminating result by the discriminating means. It is a configuration to do.

請求項5に係る発明は、請求項3又は4に記載の画像処理システムにおいて、前記操作情報生成手段は、ユーザーが行うべき操作として、複数のステップを1つずつ順に行っていく操作を特定し、前記判別手段は、ステップごとに、両手で行う必要のある操作であるか、又は、片手で行うことが可能な操作であるかを判別し、前記案内手段は、前記判別手段によるステップごとの判別結果に基づいて音声による案内と画像による案内とをステップごとに切り替えることを特徴とする構成である。 The invention according to claim 5 specifies, in the image processing system according to claim 3 or 4, an operation in which the operation information generating means performs a plurality of steps one by one as an operation to be performed by the user. The discriminating means discriminates whether the operation needs to be performed with both hands or the operation can be performed with one hand for each step, and the guiding means is for each step by the discriminating means. The configuration is characterized in that the guidance by voice and the guidance by image are switched step by step based on the discrimination result.

請求項6に係る発明は、請求項5に記載の画像処理システムにおいて、前記案内手段は、次のステップの操作が音声による案内を行う操作である場合、音声による案内を行う前に、画像による案内を行うことを特徴とする構成である。 According to a sixth aspect of the present invention, in the image processing system according to the fifth aspect, when the operation of the next step is an operation of performing voice guidance, the guidance means is based on an image before performing voice guidance. The configuration is characterized by providing guidance.

請求項7に係る発明は、請求項5又は6に記載の画像処理システムにおいて、前記操作情報生成手段は、ユーザーの操作によってステップが1つ進行する度に、次のステップに対応する操作情報を生成し、前記操作情報送信手段は、前記操作情報生成手段によって生成されるステップごとの操作情報を順に前記携帯端末装置へ送信し、前記案内手段は、音声による案内を行ってから所定時間を経過したときに、前記操作情報受信手段が次のステップに対応する操作情報を受信していない場合、音声による案内を画像による案内に切り替えることをユーザーに促すことを特徴とする構成である。 The invention according to claim 7 is the image processing system according to claim 5, wherein the operation information generating means generates operation information corresponding to the next step each time one step is advanced by the operation of the user. The operation information transmitting means generates and sequentially transmits the operation information for each step generated by the operation information generating means to the mobile terminal device, and the guidance means elapses a predetermined time after performing voice guidance. When the operation information receiving means does not receive the operation information corresponding to the next step, the user is urged to switch the voice guidance to the image guidance.

請求項8に係る発明は、請求項3乃至7のいずれかに記載の画像処理システムにおいて、前記判別手段は、ユーザーが行うべき操作がレバーを操作しながら紙を取り出す操作である場合に両手で行う必要のある操作であると判別することを特徴とする構成である。 The invention according to claim 8 is the image processing system according to any one of claims 3 to 7, wherein the discriminating means is an operation of taking out paper while operating a lever by the user with both hands. The configuration is characterized in that it is determined that the operation needs to be performed.

請求項9に係る発明は、請求項3乃至8のいずれかに記載の画像処理システムにおいて、前記判別手段は、ユーザーが行うべき操作がローラーを手動回転させながら紙を取り出す操作である場合に両手で行う必要のある操作であると判別することを特徴とする構成である。 The invention according to claim 9 is the image processing system according to any one of claims 3 to 8, wherein the discriminating means is an operation of taking out paper while manually rotating a roller. The configuration is characterized in that it is determined that the operation needs to be performed in.

請求項10に係る発明は、請求項3乃至9のいずれかに記載の画像処理システムにおいて、前記判別手段は、ユーザーが行うべき操作が所定サイズ以上の用紙を補給する操作である場合に両手で行う必要のある操作であると判別することを特徴とする構成である。 The invention according to claim 10 is the image processing system according to any one of claims 3 to 9, wherein the discriminating means is an operation to replenish paper of a predetermined size or more with both hands. The configuration is characterized in that it is determined that the operation needs to be performed.

請求項11に係る発明は、請求項1乃至10のいずれかに記載の画像処理システムにおいて、前記携帯端末装置は、画像を撮影する撮像手段と、前記撮像手段によって撮影された画像からユーザーの顔画像を認識する画像認識手段と、を更に備え、前記案内手段は、前記画像認識手段によってユーザーの顔画像が認識されている場合に画像による案内を行い、前記画像認識手段によってユーザーの顔画像が認識されていない場合に音声による案内を行うことを特徴とする構成である。 The invention according to claim 11 is the image processing system according to any one of claims 1 to 10, wherein the portable terminal device has an image pickup means for capturing an image and a user's face from an image captured by the image pickup means. Further provided with an image recognition means for recognizing an image, the guidance means provides guidance by an image when the user's face image is recognized by the image recognition means, and the image recognition means provides the user's face image. The configuration is characterized in that guidance is given by voice when it is not recognized.

請求項12に係る発明は、請求項1乃至11のいずれかに記載の画像処理システムにおいて、前記携帯端末装置は、前記携帯端末装置に作用する加速度を検知する加速度センサー、を更に備え、前記案内手段は、前記加速度センサーによって加速度が検知されている場合に画像による案内を行い、前記加速度センサーによって加速度が検知されていない場合に音声による案内を行うことを特徴とする構成である。 The invention according to claim 12 is the image processing system according to any one of claims 1 to 11, wherein the mobile terminal device further includes an acceleration sensor that detects an acceleration acting on the mobile terminal device, and the guidance thereof. The means is characterized in that it provides guidance by an image when the acceleration is detected by the acceleration sensor, and guides by voice when the acceleration is not detected by the acceleration sensor.

請求項13に係る発明は、請求項1乃至12のいずれかに記載の画像処理システムにおいて、前記画像処理装置は、ユーザーによって行われる操作がエラーを解除するための正しい操作であるか否かを判別する操作判別手段、を更に備え、前記案内手段は、音声による案内を行っている状態において前記操作判別手段によってユーザーの操作が誤った操作であると判別された場合、音声による案内を画像による案内に切り替えることをユーザーに促すことを特徴とする構成である。 The invention according to claim 13 is the image processing system according to any one of claims 1 to 12, wherein the image processing apparatus determines whether or not the operation performed by the user is a correct operation for canceling an error. The guidance means further includes an operation discriminating means for discriminating, and when the operation discriminating means determines that the user's operation is an erroneous operation in a state where the guidance by voice is being performed, the guidance by voice is provided as an image. The configuration is characterized by prompting the user to switch to guidance.

請求項14に係る発明は、請求項1乃至13のいずれかに記載の画像処理システムにおいて、前記携帯端末装置は、ユーザーの操作を検知する操作検知手段、を更に備え、前記案内手段は、音声による案内を行っているとき、前記操作検知手段によって検知されるユーザーの操作に応じて音声による案内を画像による案内に切り替えることを特徴とする構成である。 The invention according to claim 14 further includes, in the image processing system according to any one of claims 1 to 13, an operation detection means for detecting a user's operation, and the guidance means is a voice. The configuration is characterized in that the voice guidance is switched to the image guidance according to the user's operation detected by the operation detection means.

請求項15に係る発明は、請求項14に記載の画像処理システムにおいて、前記案内手段は、音声による案内を行っているとき、前記操作検知手段によって検知されるユーザーの操作に応じて音声による案内を再生又は一時停止させることが可能であることを特徴とする構成である。 The invention according to claim 15 is the image processing system according to claim 14, wherein when the guidance means is performing voice guidance, voice guidance is provided according to a user's operation detected by the operation detection means. It is a configuration characterized in that it is possible to play or pause.

請求項16に係る発明は、画像処理装置と近距離通信を行うことが可能な携帯端末装置であって、前記画像処理装置のエラーを解除するためにユーザーが行うべき操作に関する操作情報を、前記画像処理装置から受信する操作情報受信手段と、前記操作情報受信手段によって受信された操作情報に基づき、ユーザーが行うべき操作を音声又は画像で案内する案内手段と、を備え、前記案内手段は、ユーザーが行うべき操作の種類、又は、ユーザーによる前記携帯端末装置の保持状態に応じて、音声による案内と画像による案内とを切り替えることを特徴とする構成である。 The invention according to claim 16 is a mobile terminal device capable of performing short-range communication with an image processing device, and provides operation information regarding an operation to be performed by a user in order to clear an error in the image processing device. The guidance means includes an operation information receiving means received from the image processing device and a guidance means for guiding an operation to be performed by the user by voice or an image based on the operation information received by the operation information receiving means. The configuration is characterized by switching between voice guidance and image guidance according to the type of operation to be performed by the user or the holding state of the mobile terminal device by the user.

請求項17に係る発明は、請求項16に記載の携帯端末装置において、前記案内手段は、ユーザーが行うべき操作が両手で行う必要のある操作である場合に音声による案内を行い、ユーザーが行うべき操作が片手で行うことが可能な操作である場合に画像による案内を行うことを特徴とする構成である。 The invention according to claim 17 is the mobile terminal device according to claim 16, wherein the guidance means provides voice guidance when the operation to be performed by the user is an operation that needs to be performed by both hands, and the user performs the guidance. The configuration is characterized in that guidance is performed by an image when the operation to be performed is an operation that can be performed with one hand.

請求項18に係る発明は、請求項16又は17に記載の携帯端末装置において、前記案内手段は、ユーザーが行うべき操作に複数のステップが含まれる場合、ステップごとに、音声による案内と画像による案内とを切り替えることを特徴とする構成である。 The invention according to claim 18 is the mobile terminal device according to claim 16 or 17, wherein when the operation to be performed by the user includes a plurality of steps, the guidance means is provided by voice guidance and an image for each step. The configuration is characterized by switching between guidance and guidance.

請求項19に係る発明は、請求項18に記載の携帯端末装置において、前記案内手段は、次のステップの操作が音声による案内を行う操作である場合、音声による案内を行う前に、画像による案内を行うことを特徴とする構成である。 The invention according to claim 19 is the mobile terminal device according to claim 18, wherein when the operation of the next step is an operation of performing voice guidance, the guidance means is based on an image before the voice guidance is performed. The configuration is characterized by providing guidance.

請求項20に係る発明は、請求項18又は19に記載の携帯端末装置において、前記案内手段は、音声による案内を行ってから所定時間を経過したときに、前記操作情報受信手段が次のステップに対応する操作情報を受信していない場合、音声による案内を画像による案内に切り替えることをユーザーに促すことを特徴とする構成である。 The invention according to claim 20 is the mobile terminal device according to claim 18 or 19, wherein when a predetermined time elapses after the guidance means performs voice guidance, the operation information receiving means takes the next step. When the operation information corresponding to the above is not received, the configuration is characterized in that the user is urged to switch the voice guidance to the image guidance.

請求項21に係る発明は、請求項16乃至20のいずれかに記載の携帯端末装置において、前記案内手段は、ユーザーが行うべき操作がレバーを操作しながら紙を取り出す操作である場合に音声による案内を行うことを特徴とする構成である。 The invention according to claim 21 is the mobile terminal device according to any one of claims 16 to 20, wherein the guidance means is voiced when the operation to be performed by the user is an operation of taking out paper while operating a lever. The configuration is characterized by providing guidance.

請求項22に係る発明は、請求項16乃至21のいずれかに記載の携帯端末装置において、前記案内手段は、ユーザーが行うべき操作がローラーを手動回転させながら紙を取り出す操作である場合に音声による案内を行うことを特徴とする構成である。 The invention according to claim 22 is the mobile terminal device according to any one of claims 16 to 21, wherein the guidance means is a voice operation when the operation to be performed by the user is an operation of taking out the paper while manually rotating the roller. It is a configuration characterized by providing guidance by.

請求項23に係る発明は、請求項16乃至22のいずれかに記載の携帯端末装置において、前記案内手段は、ユーザーが行うべき操作が所定サイズ以上の用紙を補給する操作である場合に音声による案内を行うことを特徴とする構成である。 The invention according to claim 23 is the mobile terminal device according to any one of claims 16 to 22, wherein the guidance means is voiced when the operation to be performed by the user is an operation of replenishing paper of a predetermined size or more. The configuration is characterized by providing guidance.

請求項24に係る発明は、請求項16乃至23のいずれかに記載の携帯端末装置において、画像を撮影する撮像手段と、前記撮像手段によって撮影された画像からユーザーの顔画像を認識する画像認識手段と、を更に備え、前記案内手段は、前記画像認識手段によってユーザーの顔画像が認識されている場合に画像による案内を行い、前記画像認識手段によってユーザーの顔画像が認識されていない場合に音声による案内を行うことを特徴とする構成である。 The invention according to claim 24 is an image recognition means for capturing an image and an image recognition for recognizing a user's face image from an image captured by the imaging means in the portable terminal device according to any one of claims 16 to 23. The guidance means further comprises means, and the guidance means provides guidance by an image when the user's face image is recognized by the image recognition means, and when the user's face image is not recognized by the image recognition means. The configuration is characterized by providing voice guidance.

請求項25に係る発明は、請求項16乃至24のいずれかに記載の携帯端末装置において、前記携帯端末装置に作用する加速度を検知する加速度センサー、を更に備え、前記案内手段は、前記加速度センサーによって加速度が検知されている場合に画像による案内を行い、前記加速度センサーによって加速度が検知されていない場合に音声による案内を行うことを特徴とする構成である。 The invention according to claim 25 further includes an acceleration sensor for detecting the acceleration acting on the portable terminal device in the mobile terminal device according to any one of claims 16 to 24, and the guiding means is the acceleration sensor. The configuration is characterized in that guidance is provided by an image when acceleration is detected by the acceleration sensor, and guidance is provided by voice when acceleration is not detected by the acceleration sensor.

請求項26に係る発明は、請求項16乃至25のいずれかに記載の携帯端末装置において、前記案内手段は、音声による案内を行っているときに前記画像処理装置においてユーザーの操作が誤った操作であると判別された場合、音声による案内を画像による案内に切り替えることをユーザーに促すことを特徴とする構成である。 The invention according to claim 26 is the mobile terminal device according to any one of claims 16 to 25, wherein the guidance means is erroneously operated by the user in the image processing device while performing voice guidance. When it is determined that the above is the case, the configuration is characterized in that the user is urged to switch the voice guidance to the image guidance.

請求項27に係る発明は、請求項16乃至26のいずれかに記載の携帯端末装置において、ユーザーの操作を検知する操作検知手段、を更に備え、前記案内手段は、音声による案内を行っているとき、前記操作検知手段によって検知されるユーザーの操作に応じて音声による案内を画像による案内に切り替えることを特徴とする構成である。 The invention according to claim 27 further includes an operation detection means for detecting a user's operation in the mobile terminal device according to any one of claims 16 to 26, and the guidance means provides voice guidance. At that time, the configuration is characterized in that the voice guidance is switched to the image guidance according to the user's operation detected by the operation detection means.

請求項28に係る発明は、請求項27に記載の携帯端末装置において、前記案内手段は、音声による案内を行っているとき、前記操作検知手段によって検知されるユーザーの操作に応じて音声による案内を再生又は一時停止させることが可能であることを特徴とする構成である。 The invention according to claim 28 is the mobile terminal device according to claim 27, wherein when the guidance means is performing voice guidance, voice guidance is provided according to a user's operation detected by the operation detection means. It is a configuration characterized in that it is possible to play or pause.

請求項29に係る発明は、画像処理装置と近距離通信を行うことが可能な携帯端末装置において実行されるプログラムであって、前記携帯端末装置に、前記画像処理装置のエラーを解除するためにユーザーが行うべき操作に関する操作情報を、前記画像処理装置から受信する第1のステップと、前記第1のステップにおいて受信された操作情報に基づき、ユーザーが行うべき操作を音声又は画像で案内する第2のステップと、を実行させ、前記第2のステップは、ユーザーが行うべき操作の種類、又は、ユーザーによる前記携帯端末装置の保持状態に応じて、音声による案内と画像による案内とを切り替えることを特徴とする構成である。 The invention according to claim 29 is a program executed in a mobile terminal device capable of performing short-range communication with an image processing device, in order to release the error of the image processing device in the mobile terminal device. Based on the first step of receiving operation information regarding the operation to be performed by the user from the image processing device and the operation information received in the first step, the operation to be performed by the user is guided by voice or image. The second step is to switch between voice guidance and image guidance according to the type of operation to be performed by the user or the holding state of the mobile terminal device by the user. It is a configuration characterized by.

請求項30に係る発明は、請求項29に記載のプログラムにおいて、前記第2のステップは、ユーザーが行うべき操作が両手で行う必要のある操作である場合に音声による案内を行い、ユーザーが行うべき操作が片手で行うことが可能な操作である場合に画像による案内を行うことを特徴とする構成である。 The invention according to claim 30 is the program according to claim 29, wherein the second step is performed by the user by providing voice guidance when the operation to be performed by the user is an operation that needs to be performed by both hands. The configuration is characterized in that guidance is performed by an image when the operation to be performed is an operation that can be performed with one hand.

請求項31に係る発明は、請求項29又は30に記載のプログラムにおいて、前記携帯端末装置は、画像を撮影する撮像手段を備え、前記プログラムは、前記携帯端末装置に、前記撮像手段によって撮影された画像からユーザーの顔画像を認識する第3のステップ、を更に実行させ、前記第2のステップは、前記第3のステップにおいてユーザーの顔画像が認識されている場合に画像による案内を行い、前記第3のステップにおいてユーザーの顔画像が認識されていない場合に音声による案内を行うことを特徴とする構成である。 The invention according to claim 31 is the program according to claim 29 or 30, wherein the mobile terminal device includes an image pickup means for capturing an image, and the program is captured by the image pickup means on the mobile terminal device. The third step of recognizing the user's face image from the image is further executed, and the second step provides guidance by the image when the user's face image is recognized in the third step. The configuration is characterized in that guidance by voice is performed when the user's face image is not recognized in the third step.

請求項32に係る発明は、請求項29乃至31のいずれかに記載のプログラムにおいて、前記携帯端末装置は、前記携帯端末装置に作用する加速度を検知する加速度センサーを備え、前記第2のステップは、前記加速度センサーによって加速度が検知されている場合に画像による案内を行い、前記加速度センサーによって加速度が検知されていない場合に音声による案内を行うことを特徴とする構成である。 The invention according to claim 32 is the program according to any one of claims 29 to 31, wherein the mobile terminal device includes an acceleration sensor that detects an acceleration acting on the mobile terminal device, and the second step is the second step. The configuration is characterized in that when the acceleration is detected by the acceleration sensor, guidance is provided by an image, and when the acceleration is not detected by the acceleration sensor, guidance is provided by voice.

本発明によれば、ユーザーが行うべき操作などに応じて音声による案内と画像による案内とを切り替えるため、携帯端末装置の電力消費量を低減させることができるようになる。 According to the present invention, since the voice guidance and the image guidance are switched according to the operation to be performed by the user, the power consumption of the mobile terminal device can be reduced.

画像処理システムの構成例を示す図である。It is a figure which shows the configuration example of an image processing system. 画像処理装置のハードウェア構成の一例を示すブロック図である。It is a block diagram which shows an example of the hardware composition of an image processing apparatus. 携帯端末装置のハードウェア構成の一例を示すブロック図である。It is a block diagram which shows an example of the hardware composition of a mobile terminal apparatus. 画像処理装置及び携帯端末装置の機能構成を示すブロック図である。It is a block diagram which shows the functional structure of an image processing apparatus and a mobile terminal apparatus. エラー判別情報の一例を示す図である。It is a figure which shows an example of error discrimination information. 操作案内登録情報の一例を示す図である。It is a figure which shows an example of the operation guide registration information. 操作案内登録情報に登録される画像データの一例を示す図である。It is a figure which shows an example of the image data registered in the operation guide registration information. 操作案内登録情報に登録される音声データの一例を示す図である。It is a figure which shows an example of the voice data registered in the operation guide registration information. 画像処理装置でエラーが発生した場合に画像処理装置及び携帯端末装置が互いに連携しながら行うプロセスの流れを示す図である。It is a figure which shows the flow of the process which an image processing apparatus and a mobile terminal apparatus perform in cooperation with each other when an error occurs in an image processing apparatus. 画像処理装置において行われる処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the processing procedure performed in an image processing apparatus. 携帯端末装置において行われる主たる処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the main processing procedure performed in a mobile terminal apparatus. 操作案内処理の詳細な処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the detailed processing procedure of operation guidance processing.

以下、本発明に関する好ましい実施形態について図面を参照しつつ詳細に説明する。尚、以下に説明する実施形態において互いに共通する部材には同一符号を付しており、それらについての重複する説明は省略する。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings. In the embodiments described below, members that are common to each other are designated by the same reference numerals, and duplicate description thereof will be omitted.

図1は、本発明の一実施形態における画像処理システム1の構成例を示す図である。この画像処理システム1は、MFPなどで構成される画像処理装置2と、ユーザーが所持するスマートフォンやタブレット端末、パーソナルコンピュータなどで構成される携帯端末装置3とを備えている。そして画像処理装置2と携帯端末装置3は、互いに無線による近距離通信を行うことができるように構成される。 FIG. 1 is a diagram showing a configuration example of an image processing system 1 according to an embodiment of the present invention. The image processing system 1 includes an image processing device 2 composed of an MFP or the like, and a mobile terminal device 3 composed of a smartphone, a tablet terminal, a personal computer, or the like owned by the user. The image processing device 2 and the mobile terminal device 3 are configured to be capable of wireless short-range communication with each other.

画像処理装置2は、スキャン機能やプリント機能、コピー機能などの複数の機能を備えており、ユーザーの指示に基づいてスキャンジョブやプリントジョブ、コピージョブなどを実行することができる。このような画像処理装置2は、内部において紙詰まりなどのエラーが発生することがある。画像処理装置2においてエラーが発生すると、画像処理装置2は、ユーザーが所持する携帯端末装置3と近距離通信を行うことにより、携帯端末装置3にエラー解除のための操作案内を行わせる。 The image processing device 2 has a plurality of functions such as a scan function, a print function, and a copy function, and can execute a scan job, a print job, a copy job, and the like based on a user's instruction. In such an image processing device 2, an error such as a paper jam may occur inside. When an error occurs in the image processing device 2, the image processing device 2 causes the mobile terminal device 3 to provide operation guidance for canceling the error by performing short-range communication with the mobile terminal device 3 owned by the user.

携帯端末装置3には、画像処理装置2と連携するためのアプリケーションが予めインストールされている。携帯端末装置3は、そのアプリケーションを起動させることにより、画像処理装置2と近距離通信を行うことができる。そして画像処理装置2においてエラーが発生した状態でアプリケーションが起動することに伴い、携帯端末装置3は、画像処理装置2との近距離通信を開始し、画像処理装置2からの指示に基づいてエラーを解除するための操作をユーザーに案内する。 An application for linking with the image processing device 2 is pre-installed in the mobile terminal device 3. The mobile terminal device 3 can perform short-range communication with the image processing device 2 by activating the application. Then, as the application is started in the state where the error occurs in the image processing device 2, the mobile terminal device 3 starts short-range communication with the image processing device 2 and makes an error based on the instruction from the image processing device 2. Guide the user to the operation to cancel.

図2は、画像処理装置2のハードウェア構成の一例を示すブロック図である。画像処理装置2は、制御部10と、操作パネル11と、ネットワークインタフェース12と、記憶部13と、近距離通信インタフェース16と、スキャナ部20と、プリンタ部30とを備えている。 FIG. 2 is a block diagram showing an example of the hardware configuration of the image processing device 2. The image processing device 2 includes a control unit 10, an operation panel 11, a network interface 12, a storage unit 13, a short-range communication interface 16, a scanner unit 20, and a printer unit 30.

制御部10は、CPU10aとメモリ10bとを備え、各部の動作を制御する。CPU10aは、画像処理装置2に電源が投入されると、記憶部13からプログラム14を読み出して実行することにより、制御部10を様々な処理部として機能させる。メモリ10bは、CPU10aがプログラム14に基づく処理を実行する際に一時的なデータなどを記憶するためのものである。 The control unit 10 includes a CPU 10a and a memory 10b, and controls the operation of each unit. When the power is turned on to the image processing device 2, the CPU 10a reads the program 14 from the storage unit 13 and executes the program 14 to cause the control unit 10 to function as various processing units. The memory 10b is for storing temporary data or the like when the CPU 10a executes a process based on the program 14.

操作パネル11は、ユーザーが画像処理装置2を操作する際のユーザーインタフェースとなるものである。操作パネル11は、ユーザーに対して各種情報を表示する表示部11aと、ユーザーによる操作を受け付ける操作部11bとを備えている。表示部11aは、例えばカラー液晶ディスプレイで構成される。操作部11bは、表示部11aの画面上に配置されるタッチパネルキーや表示部11aの画面周囲に配置される押しボタンキーなどで構成される。このような操作パネル11は、画像処理装置2の装置本体正面側の所定位置に固定されている。そのため、ユーザーは、画像処理装置2の正面側に立つことにより、表示部11aで表示される画像を視認し易く、また操作部11bに対する操作を行い易くなる。 The operation panel 11 serves as a user interface when the user operates the image processing device 2. The operation panel 11 includes a display unit 11a that displays various information to the user, and an operation unit 11b that accepts operations by the user. The display unit 11a is composed of, for example, a color liquid crystal display. The operation unit 11b includes touch panel keys arranged on the screen of the display unit 11a, push button keys arranged around the screen of the display unit 11a, and the like. Such an operation panel 11 is fixed at a predetermined position on the front side of the main body of the image processing device 2. Therefore, by standing on the front side of the image processing device 2, the user can easily see the image displayed on the display unit 11a and can easily operate the operation unit 11b.

ネットワークインタフェース12は、画像処理装置2がLAN(Local Area Network)などのネットワークを介してパーソナルコンピュータやその他のデバイスと通信を行うためのものである。 The network interface 12 is for the image processing device 2 to communicate with a personal computer or other device via a network such as a LAN (Local Area Network).

記憶部13は、例えばハードディスクドライブ(HDD)やソリッドステートドライブ(SSD)などで構成される不揮発性の記憶手段である。記憶部13には、制御部10のCPU10aによって実行されるプログラム14が予め記憶されている。また記憶部13には、エラー判別情報15が予め記憶されている。このエラー判別情報15は、画像処理装置2において紙詰まりなどのエラーが発生した場合に、そのエラーの種類に応じて、エラーを解除するためにユーザーが行うべき解除操作を特定するために参照される情報である。 The storage unit 13 is a non-volatile storage means composed of, for example, a hard disk drive (HDD) or a solid state drive (SSD). The storage unit 13 stores in advance the program 14 executed by the CPU 10a of the control unit 10. Further, the error determination information 15 is stored in advance in the storage unit 13. This error determination information 15 is referred to in order to specify a clearing operation to be performed by the user in order to clear the error according to the type of the error when an error such as a paper jam occurs in the image processing device 2. Information.

近距離通信インタフェース16は、ユーザーが所持する携帯端末装置3と近距離通信を行うためのインタフェースである。例えば近距離通信インタフェース16は、NFC(Near Field Communication)やBluetooth(登録商標)などの規格に基づく無線通信を行うインタフェースである。 The short-range communication interface 16 is an interface for performing short-range communication with the mobile terminal device 3 owned by the user. For example, the short-range communication interface 16 is an interface for performing wireless communication based on standards such as NFC (Near Field Communication) and Bluetooth (registered trademark).

スキャナ部20は、ユーザーによってセットされる原稿を読み取って画像データを生成する。このスキャナ部20は、原稿搬送部21と画像読取部24とを備えている。原稿搬送部21は、ユーザーによってセットされる原稿を所定の搬送路に沿って1枚ずつ自動搬送するものである。画像読取部24は、原稿搬送部21によって搬送される原稿が所定の読み取り位置を通過する際に、その原稿の表面にある画像を光学的に読み取るものである。 The scanner unit 20 reads a document set by the user and generates image data. The scanner unit 20 includes a document transport unit 21 and an image reading unit 24. The document transport unit 21 automatically transports documents set by the user one by one along a predetermined transport path. The image reading unit 24 optically reads an image on the surface of the document when the document conveyed by the document conveying unit 21 passes through a predetermined reading position.

このようなスキャナ部20では、原稿搬送部21が原稿の自動搬送を行っているときに、搬送路において紙詰まりが発生する可能性がある。そのため原稿搬送部21は、そのような紙詰まりを検知するための紙詰まりセンサー22を備えている。また原稿搬送部21は、そのような紙詰まりが発生した場合に搬送路を開放するために開閉可能なカバー(図示省略)を備えており、そのカバーの開閉状態を検知するカバー開閉センサー23を備えている。そして紙詰まりセンサー22及びカバー開閉センサー23による検知結果は、制御部10へ出力される。 In such a scanner unit 20, when the document transport unit 21 is automatically transporting documents, a paper jam may occur in the transport path. Therefore, the document transport unit 21 is provided with a paper jam sensor 22 for detecting such a paper jam. Further, the document transport unit 21 is provided with a cover (not shown) that can be opened and closed to open the transport path when such a paper jam occurs, and the cover open / close sensor 23 that detects the open / closed state of the cover is provided. I have. Then, the detection result by the paper jam sensor 22 and the cover open / close sensor 23 is output to the control unit 10.

プリンタ部30は、制御部10によって指定された画像データに基づいて印刷用紙に画像形成を行うことにより、印刷出力を行う。このプリンタ部30は、給紙部31と、用紙搬送部34と、画像形成部37とを備えている。 The printer unit 30 performs print output by forming an image on printing paper based on the image data designated by the control unit 10. The printer unit 30 includes a paper feeding unit 31, a paper conveying unit 34, and an image forming unit 37.

給紙部31は、画像処理装置2に設けられている印刷用紙をストックしておくための少なくとも1つのトレー(図示省略)から用紙を1枚ずつ取り出して給紙するものである。この給紙部31には、トレーにおける用紙エンプティを検知するための用紙エンプティセンサー32が設けられている。また給紙部31には、トレーの開閉状態を検知するトレー開閉センサー33が設けられている。そして用紙エンプティセンサー32及びトレー開閉センサー33による検知結果は、制御部10へ出力される。尚、画像処理装置2に複数のトレーが設けられる場合、用紙エンプティセンサー32及びトレー開閉センサー33は、トレーごとに設けられる。 The paper feeding unit 31 takes out the paper one by one from at least one tray (not shown) for stocking the printing paper provided in the image processing device 2 and feeds the paper. The paper feeding unit 31 is provided with a paper empty sensor 32 for detecting the paper empty in the tray. Further, the paper feed unit 31 is provided with a tray open / close sensor 33 that detects the open / closed state of the tray. Then, the detection result by the paper empty sensor 32 and the tray open / close sensor 33 is output to the control unit 10. When a plurality of trays are provided in the image processing device 2, the paper empty sensor 32 and the tray open / close sensor 33 are provided for each tray.

用紙搬送部34は、給紙部31によって給紙される用紙を、所定の搬送路に沿って搬送するものである。用紙搬送部34が用紙の自動搬送を行っているときには、搬送路において紙詰まりが発生する可能性がある。そのため用紙搬送部34は、そのような紙詰まりを検知するための紙詰まりセンサー35を備えている。また用紙搬送部34は、そのような紙詰まりが発生した場合に搬送路を開放するために開閉可能な扉(図示省略)を備えており、その扉の開閉状態を検知する扉開閉センサー36を備えている。そして紙詰まりセンサー35及び扉開閉センサー36による検知結果は、制御部10へ出力される。尚、用紙搬送部34には、複数の紙詰まりセンサー35が設けられていても良いし、また複数の扉開閉センサー36が設けられていても良い。 The paper transport unit 34 transports the paper fed by the paper feed unit 31 along a predetermined transport path. When the paper transport unit 34 automatically transports paper, a paper jam may occur in the transport path. Therefore, the paper transport unit 34 is provided with a paper jam sensor 35 for detecting such a paper jam. Further, the paper transport unit 34 is provided with a door (not shown) that can be opened and closed to open the transport path when such a paper jam occurs, and a door open / close sensor 36 that detects the open / closed state of the door is provided. I have. Then, the detection result by the paper jam sensor 35 and the door open / close sensor 36 is output to the control unit 10. The paper transport unit 34 may be provided with a plurality of paper jam sensors 35, or may be provided with a plurality of door open / close sensors 36.

画像形成部37は、用紙搬送部34によって搬送される用紙が所定位置を通過する際に、用紙の表面にトナー像を転写し、更にトナー像を転写した用紙が別の所定位置を通過する際にトナー像を用紙に定着させることにより、用紙に対して画像形成を行うものである。この画像形成部37は、トナー残量センサー38を備えている。また画像形成部37は、トナーを交換する際に開放するための開閉可能な扉(図示省略)を備えており、その扉の開閉状態を検知する扉開閉センサー39を備えている。そしてトナー残量センサー38及び扉開閉センサー39の検知結果は、制御部10へ出力される。 When the paper conveyed by the paper conveying unit 34 passes through a predetermined position, the image forming unit 37 transfers the toner image to the surface of the paper, and when the paper to which the toner image is transferred passes through another predetermined position. By fixing the toner image on the paper, the image is formed on the paper. The image forming unit 37 includes a toner remaining amount sensor 38. Further, the image forming unit 37 is provided with a door (not shown) that can be opened and closed for opening when the toner is replaced, and is provided with a door opening / closing sensor 39 that detects the opened / closed state of the door. Then, the detection results of the toner remaining amount sensor 38 and the door opening / closing sensor 39 are output to the control unit 10.

次に図3は、携帯端末装置3のハードウェア構成の一例を示すブロック図である。携帯端末装置3は、制御部40と、表示部41と、操作部42と、マイク43と、スピーカー44と、撮像部45と、記憶部46と、加速度センサー49と、近距離通信インタフェース50とを備えている。 Next, FIG. 3 is a block diagram showing an example of the hardware configuration of the mobile terminal device 3. The mobile terminal device 3 includes a control unit 40, a display unit 41, an operation unit 42, a microphone 43, a speaker 44, an imaging unit 45, a storage unit 46, an acceleration sensor 49, and a short-range communication interface 50. It has.

制御部40は、CPU40aとメモリ40bとを備え、各部の動作を制御する。CPU40aは、記憶部46に記憶されているプログラム47を読み出して実行することにより、画像処理装置2と連携するためのアプリケーションを起動し、制御部40を後述する各種の処理部として機能させる。メモリ40bは、CPU40aがプログラム47に基づく処理を実行する際に一時的なデータなどを記憶するためのものである。 The control unit 40 includes a CPU 40a and a memory 40b, and controls the operation of each unit. The CPU 40a starts an application for linking with the image processing device 2 by reading and executing the program 47 stored in the storage unit 46, and causes the control unit 40 to function as various processing units described later. The memory 40b is for storing temporary data or the like when the CPU 40a executes a process based on the program 47.

表示部41は、ユーザーに対して各種の画像を表示する表示手段であり、例えばカラー液晶ディスプレイによって構成される。操作部42は、ユーザーによる操作を受け付けるためのものであり、例えば表示部41の画面上に配置されるタッチパネルキーや、表示部41の画面周囲に配置される押しボタンキーなどによって構成される。 The display unit 41 is a display means for displaying various images to the user, and is composed of, for example, a color liquid crystal display. The operation unit 42 is for receiving an operation by the user, and is composed of, for example, a touch panel key arranged on the screen of the display unit 41, a push button key arranged around the screen of the display unit 41, and the like.

マイク43は、周囲の音声を音声信号に変換して制御部40へ出力するものである。スピーカー44は、制御部40から入力する音声信号に基づいて周囲に音声を出力するものである。撮像部45は、例えば表示部41の表示画面の周囲所定位置に設けられ、表示部41の表示画面に対して法線方向にある物体を撮影することが可能な撮像手段である。 The microphone 43 converts ambient voice into a voice signal and outputs it to the control unit 40. The speaker 44 outputs voice to the surroundings based on the voice signal input from the control unit 40. The imaging unit 45 is, for example, an imaging means provided at a predetermined position around the display screen of the display unit 41 and capable of photographing an object in the normal direction with respect to the display screen of the display unit 41.

記憶部46は、例えばハードディスクドライブ(HDD)やソリッドステートドライブ(SSD)などによって構成される不揮発性の記憶手段である。この記憶部46には、上述したプログラム47が予め記憶されている。また記憶部46には、予め操作案内登録情報48が記憶されている。操作案内登録情報48は、制御部40において画像処理装置2と連携するアプリケーションが起動した場合に、そのアプリケーションによって参照される情報である。 The storage unit 46 is a non-volatile storage means composed of, for example, a hard disk drive (HDD) or a solid state drive (SSD). The program 47 described above is stored in advance in the storage unit 46. Further, the operation guide registration information 48 is stored in advance in the storage unit 46. The operation guide registration information 48 is information that is referred to by the application when the application linked with the image processing device 2 is started in the control unit 40.

加速度センサー49は、携帯端末装置3に作用する加速度を検知するセンサーである。ユーザーが携帯端末装置3を所持している場合、加速度センサー49は、ユーザーの動作に伴う加速度を検知し、その加速度を制御部40へ出力する。これに対し、ユーザーが携帯端末装置3を床面などの静止物上に置いた状態のときには、加速度センサー49は加速度を検知しないため、制御部40へ出力される加速度はゼロとなる。 The acceleration sensor 49 is a sensor that detects the acceleration acting on the mobile terminal device 3. When the user possesses the mobile terminal device 3, the acceleration sensor 49 detects the acceleration accompanying the user's operation and outputs the acceleration to the control unit 40. On the other hand, when the user places the mobile terminal device 3 on a stationary object such as a floor surface, the acceleration sensor 49 does not detect the acceleration, so that the acceleration output to the control unit 40 becomes zero.

近距離通信インタフェース50は、画像処理装置2と近距離通信を行うためのインタフェースである。例えば近距離通信インタフェース50は、画像処理装置2と同様に、NFC(Near Field Communication)やBluetooth(登録商標)などの規格に基づく無線通信を行うインタフェースである。 The short-range communication interface 50 is an interface for performing short-range communication with the image processing device 2. For example, the short-range communication interface 50 is an interface that performs wireless communication based on standards such as NFC (Near Field Communication) and Bluetooth (registered trademark), similarly to the image processing device 2.

上記構成を有する画像処理システム1は、画像処理装置2で紙詰まりなどのエラーが発生し、携帯端末装置3がエラーを解除するための操作を案内するとき、ユーザーが行うべき操作の種類、又は、ユーザーによる携帯端末装置3の保持状態に応じて、音声による案内と、画像による案内と、を切り替えるように構成される。以下、このような画像処理システム1について更に詳しく説明する。 In the image processing system 1 having the above configuration, when an error such as a paper jam occurs in the image processing device 2 and the mobile terminal device 3 guides an operation for clearing the error, the type of operation to be performed by the user, or , It is configured to switch between voice guidance and image guidance according to the holding state of the mobile terminal device 3 by the user. Hereinafter, such an image processing system 1 will be described in more detail.

図4は、画像処理装置2及び携帯端末装置3の機能構成を示すブロック図である。尚、図4では、画像処理装置2においてエラーが発生した場合にそのエラーに関する処理を行うための機能だけを示しており、画像処理装置2が正常動作している場合の機能については図示を省略している。また図4に示すセンサー群19は、図2に示した紙詰まりセンサー22、カバー開閉センサー23、用紙エンプティセンサー32、トレー開閉センサー33、紙詰まりセンサー35、扉開閉センサー36、トナー残量センサー38及び扉開閉センサー39を含むものである。 FIG. 4 is a block diagram showing the functional configurations of the image processing device 2 and the mobile terminal device 3. Note that FIG. 4 shows only the function for performing processing related to the error when an error occurs in the image processing device 2, and the function when the image processing device 2 is operating normally is not shown. doing. The sensor group 19 shown in FIG. 4 includes the paper jam sensor 22, the cover open / close sensor 23, the paper empty sensor 32, the tray open / close sensor 33, the paper jam sensor 35, the door open / close sensor 36, and the toner remaining amount sensor 38 shown in FIG. And the door open / close sensor 39.

まず画像処理装置2の制御部10は、CPU10aがプログラム14を実行することにより、エラー検知部61、操作情報生成部62、操作判別部63及び操作情報送信部64として機能する。 First, the control unit 10 of the image processing device 2 functions as an error detection unit 61, an operation information generation unit 62, an operation determination unit 63, and an operation information transmission unit 64 when the CPU 10a executes the program 14.

エラー検知部61は、センサー群19に含まれる複数のセンサーのうち、いずれかのセンサーが異常を検知した場合に、その異常をエラーとして検知するものである。例えば紙詰まりセンサー22,35が紙詰まりを検知した場合、用紙エンプティセンサー32が用紙エンプティを検知した場合、或いは、トナー残量センサー38がトナーエンプティを柄検知した場合、エラー検知部61は、画像処理装置2においてエラーが発生したことを検知する。エラー検知部61は、エラーの発生を検知すると、エラー発生を示すアラートを発生させる。これにより、ユーザーは、画像処理装置2においてエラーが発生したことを把握することができる。またエラー検知部61は、エラーの発生を検知すると、操作情報生成部62を機能させる。 The error detection unit 61 detects an abnormality as an error when any of the plurality of sensors included in the sensor group 19 detects an abnormality. For example, when the paper jam sensors 22 and 35 detect a paper jam, the paper empty sensor 32 detects the paper empty, or the toner remaining amount sensor 38 detects the toner empty pattern, the error detection unit 61 displays an image. Detects that an error has occurred in the processing device 2. When the error detection unit 61 detects the occurrence of an error, it generates an alert indicating the occurrence of the error. As a result, the user can grasp that an error has occurred in the image processing device 2. Further, when the error detection unit 61 detects the occurrence of an error, the operation information generation unit 62 is made to function.

操作情報生成部62は、エラー検知部61によってエラーが検知されると、記憶部13からエラー判別情報15を読み出して参照することにより、そのエラーを解除するためにユーザーが行うべき操作を特定し、操作情報を生成する。 When an error is detected by the error detection unit 61, the operation information generation unit 62 reads the error determination information 15 from the storage unit 13 and refers to it to specify an operation to be performed by the user in order to clear the error. , Generate operation information.

図5は、エラー判別情報15の一例を示す図である。例えばエラー判別情報15は、エラーを検知するセンサーごとに、エラーのタイプを複数のタイプに区別した情報である。またエラー判別情報15には、図5に示すように、エラーを検知するセンサーごとに、そのエラーを解除するためにユーザーが行うべき操作が定義されている。ユーザーが行うべき操作は、複数のステップからなり、各ステップの操作を順に行っていくことによりエラーを適切に解除することができるようになっている。例えばスキャナ部20の原稿搬送部21に設けられた紙詰まりセンサー22が紙詰まりのエラーを検知した場合の解除操作として、第1ステップ、第2ステップ及び第3ステップの3つのステップが定められており、第1ステップでは、ユーザーがカバーを開放する操作を行い、第2ステップでは、ユーザーがジャム状態の紙を抜き取る操作を行い、第3ステップでは、ユーザーがカバーを閉鎖する操作を行うことが定義されている。また例えばプリンタ部30の給紙部31に設けられている一つの用紙エンプティセンサー32が用紙エンプティのエラーを検知した場合の解除操作として、第1ステップ、第2ステップ、第3ステップ及び第4ステップの4つのステップが定められており、第1ステップでは、ユーザーが扉を開放する操作を行い、第2ステップでは、ユーザーがレバーを持ち上げる操作を行い、第3ステップでは、ユーザーがレバーを持ち上げたままで用紙を抜き取る操作を行い、第4ステップでは、ユーザーが扉を閉鎖する操作を行うことが定義されている。そして図5に示すエラー判別情報15では、ユーザーが行うべき操作のステップごとに、ユニークな識別情報である操作情報が付与されている。 FIG. 5 is a diagram showing an example of error determination information 15. For example, the error discrimination information 15 is information that distinguishes the error types into a plurality of types for each sensor that detects an error. Further, as shown in FIG. 5, the error determination information 15 defines an operation to be performed by the user in order to clear the error for each sensor that detects the error. The operation to be performed by the user consists of a plurality of steps, and the error can be appropriately cleared by performing the operation of each step in order. For example, when the paper jam sensor 22 provided in the document transport section 21 of the scanner section 20 detects a paper jam error, three steps of a first step, a second step, and a third step are defined as a clearing operation. In the first step, the user can open the cover, in the second step, the user can pull out the jammed paper, and in the third step, the user can close the cover. It is defined. Further, for example, as a release operation when one paper empty sensor 32 provided in the paper feed unit 31 of the printer unit 30 detects a paper empty error, the first step, the second step, the third step, and the fourth step. In the first step, the user opens the door, in the second step, the user lifts the lever, and in the third step, the user lifts the lever. It is defined that the operation of pulling out the paper is performed up to, and in the fourth step, the user performs the operation of closing the door. Then, in the error determination information 15 shown in FIG. 5, operation information which is unique identification information is added to each step of the operation to be performed by the user.

操作情報生成部62は、上記のようなエラー判別情報15を参照することにより、エラーを検出したセンサーに対応する解除操作を、ユーザーが行うべき操作として特定し、その特定した操作の各ステップに定められている操作情報を読み出すことにより、操作情報を生成する。そして操作情報生成部62は、エラーを検出したセンサーに対応する解除操作に含まれる各ステップの操作情報を操作情報送信部64へ出力する。 By referring to the error determination information 15 as described above, the operation information generation unit 62 identifies the release operation corresponding to the sensor that detected the error as the operation to be performed by the user, and sets each step of the specified operation. The operation information is generated by reading the specified operation information. Then, the operation information generation unit 62 outputs the operation information of each step included in the release operation corresponding to the sensor that detected the error to the operation information transmission unit 64.

操作情報送信部64は、エラー検知部61によってエラーが検知されると、近距離通信インタフェース16を介して携帯端末装置3と通信可能な状態であるかを監視する。携帯端末装置3と通信可能な状態である場合、操作情報送信部64は、その携帯端末装置3に対し、画像処理装置2と連携するアプリケーションが起動しているか否かを問い合わせる。携帯端末装置3においてアプリケーションが起動していれば、操作情報送信部64は、その問い合わせに対する適切な応答を携帯端末装置3のアプリケーションから受信する。これにより、操作情報送信部64は、通信可能な携帯端末装置3においてアプリケーションが起動していることを把握することができる。操作情報送信部64は、携帯端末装置3においてアプリケーションが起動していることを検知すると、操作情報生成部62から出力される操作情報を携帯端末装置3へ送信する。 When an error is detected by the error detection unit 61, the operation information transmission unit 64 monitors whether or not it is in a state of being able to communicate with the mobile terminal device 3 via the short-range communication interface 16. When the mobile terminal device 3 is in a communicable state, the operation information transmission unit 64 inquires the mobile terminal device 3 whether or not an application linked with the image processing device 2 is running. If the application is started in the mobile terminal device 3, the operation information transmission unit 64 receives an appropriate response to the inquiry from the application of the mobile terminal device 3. As a result, the operation information transmission unit 64 can grasp that the application is running in the mobile terminal device 3 capable of communicating. When the operation information transmission unit 64 detects that the application is running in the mobile terminal device 3, it transmits the operation information output from the operation information generation unit 62 to the mobile terminal device 3.

これに対し、操作情報送信部64は、通信可能な携帯端末装置3においてアプリケーションが起動していないと判断した場合、携帯端末装置3においてアプリケーションが起動するまで待機する。ただし、これに限られるものではなく、操作情報送信部64は、携帯端末装置3に対してアプリケーションの起動命令を送信するようにしても良い。これにより、携帯端末装置3においてアプリケーションが自動的に起動される。そして操作情報送信部64は、携帯端末装置3においてアプリケーションが起動したことを確認した後、操作情報生成部62から出力される操作情報を携帯端末装置3へ送信する。 On the other hand, when the operation information transmission unit 64 determines that the application is not started in the mobile terminal device 3 capable of communicating, the operation information transmission unit 64 waits until the application is started in the mobile terminal device 3. However, the present invention is not limited to this, and the operation information transmission unit 64 may transmit an application start command to the mobile terminal device 3. As a result, the application is automatically started in the mobile terminal device 3. Then, after confirming that the application has been started in the mobile terminal device 3, the operation information transmission unit 64 transmits the operation information output from the operation information generation unit 62 to the mobile terminal device 3.

操作情報送信部64は、操作情報を携帯端末装置3へ送信するとき、ユーザーが行うべき操作に含まれる複数のステップの操作情報を1つずつ順に携帯端末装置3へ送信する。例えば、エラー検知部61によってエラーが検知された時には、第1ステップの操作情報を携帯端末装置3へ送信し、その後、ユーザーによる操作が第1ステップから第2ステップへ進行するときに第2ステップの操作情報を送信する。これにより、携帯端末装置3は、ユーザーによる操作の進行に合わせて適切な案内を行うことができるようになる。 When transmitting the operation information to the mobile terminal device 3, the operation information transmission unit 64 transmits the operation information of a plurality of steps included in the operation to be performed by the user to the mobile terminal device 3 one by one. For example, when an error is detected by the error detection unit 61, the operation information of the first step is transmitted to the mobile terminal device 3, and then the second step when the operation by the user proceeds from the first step to the second step. Send the operation information of. As a result, the mobile terminal device 3 can provide appropriate guidance according to the progress of the operation by the user.

操作判別部63は、センサー群19に含まれる複数のセンサーの出力を監視し、ユーザーによって行われる解除操作が正しい順序で行われているか否かを判別する処理部である。例えばスキャナ部20の原稿搬送部21に設けられた紙詰まりセンサー22がエラーを検知した場合、ユーザーが行うべき操作の第1ステップは、カバーを開放する操作である。そのため、操作判別部63は、スキャナ部20の原稿搬送部21に設けられたカバー開閉センサー23の出力を監視し、原稿搬送部21のカバーが開放されたか否かを判別する。そして原稿搬送部21のカバーが開放されたことを検知すると、操作判別部63は、ユーザーによる操作が正しい順序で行われていると判断し、操作情報送信部64に対してステップの進行を指示する。これに対し、カバー開閉センサー23がカバーの開放を検知することなく、別の扉開閉センサー36,39などが扉の開放を検知した場合、操作判別部63は、ユーザーによる操作が誤操作であると判断する。この場合、操作判別部63は、操作情報送信部64に対して誤操作情報を出力する。また操作判別部63は、誤操作を検知した場合、誤操作を示すアラートを発生させると共に、操作パネル11の表示部11aに誤操作である旨を表示させるようにしても良い。 The operation determination unit 63 is a processing unit that monitors the outputs of a plurality of sensors included in the sensor group 19 and determines whether or not the release operations performed by the user are performed in the correct order. For example, when the paper jam sensor 22 provided in the document transport unit 21 of the scanner unit 20 detects an error, the first step of the operation to be performed by the user is the operation of opening the cover. Therefore, the operation determination unit 63 monitors the output of the cover open / close sensor 23 provided in the document transfer unit 21 of the scanner unit 20 and determines whether or not the cover of the document transfer unit 21 is opened. When it detects that the cover of the document transport unit 21 has been opened, the operation determination unit 63 determines that the operations by the user are performed in the correct order, and instructs the operation information transmission unit 64 to proceed with the step. To do. On the other hand, when the cover opening / closing sensor 23 does not detect the opening of the cover and another door opening / closing sensor 36, 39 or the like detects the opening of the door, the operation determination unit 63 determines that the operation by the user is an erroneous operation. to decide. In this case, the operation determination unit 63 outputs erroneous operation information to the operation information transmission unit 64. Further, when the operation determination unit 63 detects an erroneous operation, it may generate an alert indicating the erroneous operation and display the display unit 11a of the operation panel 11 to indicate that the operation is erroneous.

操作情報送信部64は、操作判別部63からステップの進行が指示された場合、ユーザーが行うべき操作に次のステップがあれば、次のステップに対応する操作情報を携帯端末装置3へ送信する。これに対し、次のステップに対応する操作情報が存在せず、全てのステップが終了したと判断すると、操作情報送信部64は、携帯端末装置3に対してエラー解除通知を送信する。これにより、携帯端末装置3において起動しているアプリケーションは、画像処理装置2との連携処理を終了させることができる。 When the operation determination unit 63 instructs the progress of the step, the operation information transmission unit 64 transmits the operation information corresponding to the next step to the mobile terminal device 3 if the operation to be performed by the user includes the next step. .. On the other hand, when it is determined that the operation information corresponding to the next step does not exist and all the steps have been completed, the operation information transmission unit 64 transmits an error release notification to the mobile terminal device 3. As a result, the application running in the mobile terminal device 3 can end the cooperation process with the image processing device 2.

また操作情報送信部64は、操作判別部63から誤操作情報を取得した場合、その誤操作情報を携帯端末装置3へ送信する。これにより、携帯端末装置3は、ユーザーに対して誤操作を行ったことを報知することができる。 Further, when the operation information transmission unit 64 acquires the erroneous operation information from the operation determination unit 63, the operation information transmission unit 64 transmits the erroneous operation information to the mobile terminal device 3. As a result, the mobile terminal device 3 can notify the user that an erroneous operation has been performed.

次に携帯端末装置3は、CPU40aがプログラム47を実行することにより制御部40において画像処理装置2と連携するアプリケーションを起動させると、制御部40は、操作情報受信部71、案内方法判別部72及び操作案内部73として機能する。尚、制御部40のCPU40aは、ユーザーによる起動指示に基づいてプログラム47を実行するものであっても良いし、画像処理装置2から送信されるアプリケーションの起動命令に基づいてプログラム47を自動的に実行するものであっても良い。例えば画像処理装置2においてエラーの発生が検知されると、画像処理装置2からアラートが発せられる。そのため、ユーザーは、画像処理装置2から発せられるアラートによってエラーの発生を把握することができ、アプリケーションを手動で起動させることもできる。 Next, when the mobile terminal device 3 activates an application linked with the image processing device 2 in the control unit 40 by the CPU 40a executing the program 47, the control unit 40 receives the operation information receiving unit 71 and the guidance method determining unit 72. And functions as an operation guide unit 73. The CPU 40a of the control unit 40 may execute the program 47 based on a start instruction by the user, or automatically executes the program 47 based on an application start command transmitted from the image processing device 2. It may be the one to be executed. For example, when the occurrence of an error is detected in the image processing device 2, an alert is issued from the image processing device 2. Therefore, the user can grasp the occurrence of the error by the alert issued from the image processing device 2, and can also manually start the application.

操作情報受信部71は、近距離通信インタフェース50を介して画像処理装置2と通信を行うものである。まずアプリケーションが起動すると、操作情報受信部71は、画像処理装置2に対してアプリケーションの起動を通知する。これにより、画像処理装置2は、携帯端末装置3においてアプリケーションが起動したことを把握することができる。その後、操作情報受信部71は、画像処理装置2から送信される操作情報を受信する。操作情報受信部71は、エラーを解除するためにユーザーが行うべき操作に関する操作情報を受信する都度、その操作情報を案内方法判別部72へ出力する。また操作情報受信部71は、画像処理装置2から誤操作情報やエラー解除通知を受信した場合にも、それらを案内方法判別部72へ出力する。 The operation information receiving unit 71 communicates with the image processing device 2 via the short-range communication interface 50. First, when the application is started, the operation information receiving unit 71 notifies the image processing device 2 of the start of the application. As a result, the image processing device 2 can grasp that the application has been started in the mobile terminal device 3. After that, the operation information receiving unit 71 receives the operation information transmitted from the image processing device 2. The operation information receiving unit 71 outputs the operation information to the guidance method determining unit 72 each time the operation information regarding the operation to be performed by the user in order to clear the error is received. Further, even when the operation information receiving unit 71 receives the erroneous operation information or the error release notification from the image processing device 2, it outputs them to the guidance method determining unit 72.

案内方法判別部72は、ユーザーが行うべき操作を案内するとき、音声による案内と、画像による案内とのいずれの方法で案内を行うかを判別する処理部である。案内方法判別部72は、操作情報受信部71が操作情報を受信すると、まず操作案内登録情報48を参照し、ユーザーが行うべき操作の種類を判別する。 The guidance method determination unit 72 is a processing unit that determines whether to perform guidance by voice guidance or image guidance when guiding an operation to be performed by the user. When the operation information receiving unit 71 receives the operation information, the guidance method determination unit 72 first refers to the operation guidance registration information 48 and determines the type of operation to be performed by the user.

図6は、操作案内登録情報48の一例を示す図である。図6に示すように、操作案内登録情報48は、画像処理装置2から受信するステップごとの操作情報48aと、画像による案内を行うための画像データ48bと、音声による案内を行うための音声データ48cと、ユーザーが行うべき操作として両手操作が必要であるか否かを示す両手操作情報48dとのそれぞれを互いに対応付けて登録された情報である。ステップごとの操作情報48aに対応付けられる画像データ48bは、当該ステップに対応する操作を画像表示でユーザーに案内するための動画データであり、一定のフレームレートで逐次画像が更新されるデータである。またステップごとの操作情報48aに対応付けられる音声データ48cは、当該ステップに対応する操作を音声出力でユーザーに案内するための音声データであり、時系列の音声信号が記録されたデータである。両手操作情報48dは、当該ステップにおける操作をユーザーが両手で行うことが必要か否かを判別するための情報であり、ユーザーが片手で操作を行うことができる場合には「不要」が記録されている。 FIG. 6 is a diagram showing an example of the operation guide registration information 48. As shown in FIG. 6, the operation guidance registration information 48 includes operation information 48a for each step received from the image processing device 2, image data 48b for performing image guidance, and voice data for performing voice guidance. This is information registered in which 48c and the two-handed operation information 48d indicating whether or not a two-handed operation is required as an operation to be performed by the user are associated with each other. The image data 48b associated with the operation information 48a for each step is moving image data for guiding the user to the operation corresponding to the step by displaying an image, and is data in which the image is sequentially updated at a constant frame rate. .. Further, the voice data 48c associated with the operation information 48a for each step is voice data for guiding the user to the operation corresponding to the step by voice output, and is data in which a time-series voice signal is recorded. The two-handed operation information 48d is information for determining whether or not the user needs to perform the operation in the step with both hands, and if the user can perform the operation with one hand, "unnecessary" is recorded. ing.

図6に示す操作案内登録情報48では、操作情報48aが「C002」、「D002」、「D003」、「E002」、「E003」、「F002」及び「F003」である場合に、両手操作が必要であることが記録されている。 In the operation guide registration information 48 shown in FIG. 6, when the operation information 48a is "C002", "D002", "D003", "E002", "E003", "F002", and "F003", the two-handed operation is performed. It is recorded that it is necessary.

ここで、図5を参照すると、操作情報「C002」のステップに対応する操作は、A3サイズの用紙を補給する操作である。これに対し、「B002」のステップに対応するA4サイズの用紙を補給する操作の場合には、図6を参照すると、両手操作が不要であることが記録されている。つまり、図6に示す操作案内登録情報48では、ユーザーが行うべき操作が両手で保持することが必要な所定サイズ以上の用紙を補給する操作である場合に両手で操作を行う必要のある操作であることが登録されている。 Here, referring to FIG. 5, the operation corresponding to the step of the operation information “C002” is an operation of replenishing A3 size paper. On the other hand, in the case of the operation of replenishing the A4 size paper corresponding to the step of "B002", referring to FIG. 6, it is recorded that the two-handed operation is unnecessary. That is, in the operation guide registration information 48 shown in FIG. 6, when the operation to be performed by the user is an operation of replenishing paper of a predetermined size or larger that needs to be held by both hands, the operation needs to be performed with both hands. It is registered that there is.

また図5を参照すると、操作情報「D002」及び「D003」のステップに対応する操作は、レバーを持ち上げた後、そのレバーを持ち上げた状態のままで用紙を抜き取る操作である。つまり、図6に示す操作案内登録情報48では、ユーザーが行うべき操作が一方の手でレバーを操作しながら他方の手で紙を取り出す操作である場合に両手で行う必要のある操作であることが登録されている。 Further, referring to FIG. 5, the operation corresponding to the steps of the operation information “D002” and “D003” is an operation of lifting the lever and then removing the paper with the lever lifted. That is, in the operation guide registration information 48 shown in FIG. 6, when the operation to be performed by the user is an operation of operating the lever with one hand and taking out the paper with the other hand, it is an operation that must be performed with both hands. Is registered.

また図5を参照すると、操作情報「E002」及び「E003」のステップに対応する操作は、ローラーを回転させつつ、用紙を抜き取る操作である。つまり、図6に示す操作案内登録情報48では、ユーザーが行うべき操作が一方の手でローラーを手動回転させながら他方の手で紙を取り出す操作である場合に両手で行う必要のある操作であることが登録されている。 Further, referring to FIG. 5, the operation corresponding to the steps of the operation information “E002” and “E003” is an operation of removing the paper while rotating the roller. That is, the operation guide registration information 48 shown in FIG. 6 is an operation that must be performed by both hands when the operation to be performed by the user is an operation of manually rotating the roller with one hand and taking out the paper with the other hand. Is registered.

さらに図5を参照すると、操作情報「F002」及び「F003」のステップに対応する操作は、トナーを交換する操作である。つまり、図6に示す操作案内登録情報48では、両手で保持することが必要なトナーを交換する操作である場合に両手で行う必要のある操作であることが登録されている。 Further referring to FIG. 5, the operation corresponding to the steps of the operation information “F002” and “F003” is an operation of replacing the toner. That is, in the operation guide registration information 48 shown in FIG. 6, it is registered that the operation needs to be performed by both hands when the operation is to replace the toner that needs to be held by both hands.

図7は、操作案内登録情報48に登録される画像データ48bの一例を示す図である。尚、図7では、用紙エンプティセンサー32(図5に示す「用紙エンプティセンサー1」)がエラーを検知した場合の各ステップの画像データ48bを例示している。図7(a)は第1ステップの操作をユーザーに画像で案内するときの画像データ48bを示している。第1ステップにおいてユーザーが行うべき操作は、トレー1を開放する操作であるため、図7(a)に示すように第1ステップに対応する画像データ48bにはトレー1を開放する動画が記録されている。図7(b)は第2ステップの操作をユーザーに画像で案内するときの画像データ48bを示している。第2ステップにおいてユーザーが行うべき操作は、A4サイズの用紙をトレー1に補給する操作であるため、図7(b)に示すように第2ステップに対応する画像データ48bにはA4サイズの用紙を補給する動画が記録されている。図7(c)は第3ステップの操作をユーザーに画像で案内するときの画像データ48bを示している。第3ステップにおいてユーザーが行うべき操作は、トレー1を閉鎖する操作であるため、図7(c)に示すように第3ステップに対応する画像データ48bにはトレー1を閉鎖する動画が記録されている。 FIG. 7 is a diagram showing an example of image data 48b registered in the operation guide registration information 48. Note that FIG. 7 illustrates image data 48b of each step when the paper empty sensor 32 (“paper empty sensor 1” shown in FIG. 5) detects an error. FIG. 7A shows image data 48b when the operation of the first step is guided to the user with an image. Since the operation to be performed by the user in the first step is the operation of opening the tray 1, a moving image of opening the tray 1 is recorded in the image data 48b corresponding to the first step as shown in FIG. 7A. ing. FIG. 7B shows image data 48b when the operation of the second step is guided to the user with an image. Since the operation that the user should perform in the second step is to replenish the tray 1 with A4 size paper, as shown in FIG. 7B, the image data 48b corresponding to the second step contains A4 size paper. A video of replenishing is recorded. FIG. 7C shows image data 48b when the operation of the third step is guided to the user with an image. Since the operation to be performed by the user in the third step is the operation of closing the tray 1, a moving image of closing the tray 1 is recorded in the image data 48b corresponding to the third step as shown in FIG. 7 (c). ing.

図8は、操作案内登録情報48に登録される音声データ48cの一例を示す図である。尚、図8では、図7と同様に、用紙エンプティセンサー32(図5に示す「用紙エンプティセンサー1」)がエラーを検知した場合の各ステップの音声データ48cを例示している。図8(a)は第1ステップの操作をユーザーに画像で案内するときの音声データ48cを示している。第1ステップにおいてユーザーが行うべき操作は、トレー1を開放する操作であるため、図8(a)に示すように第1ステップに対応する音声データ48cが再生されると、携帯端末装置3から「トレー1を開放してください」という音声が出力される。図8(b)は第2ステップの操作をユーザーに画像で案内するときの音声データ48cを示している。第2ステップにおいてユーザーが行うべき操作は、A4サイズの用紙をトレー1に補給する操作であるため、図8(b)に示すように第2ステップに対応する音声データ48cが再生されると、携帯端末装置3から「A4用紙を補給してください」という音声が出力される。図8(c)は第3ステップの操作をユーザーに画像で案内するときの音声データ48cを示している。第3ステップにおいてユーザーが行うべき操作は、トレー1を閉鎖する操作であるため、図8(c)に示すように第3ステップに対応する音声データ48cが再生されると、携帯端末装置3から「トレー1を閉じてください」という音声が出力される。ただし、このような音声による案内は、画像による案内に比べて、トレー1の位置をユーザーが正確に把握することが難しい案内となる。 FIG. 8 is a diagram showing an example of voice data 48c registered in the operation guide registration information 48. Note that FIG. 8 illustrates audio data 48c of each step when the paper empty sensor 32 (“paper empty sensor 1” shown in FIG. 5) detects an error, as in FIG. 7. FIG. 8A shows the voice data 48c when the operation of the first step is guided to the user with an image. Since the operation to be performed by the user in the first step is the operation of opening the tray 1, when the voice data 48c corresponding to the first step is reproduced as shown in FIG. 8A, the mobile terminal device 3 starts the operation. The voice "Please open tray 1" is output. FIG. 8B shows the voice data 48c when the operation of the second step is guided to the user with an image. Since the operation to be performed by the user in the second step is the operation of replenishing the tray 1 with A4 size paper, when the audio data 48c corresponding to the second step is reproduced as shown in FIG. 8B, The voice "Please replenish A4 paper" is output from the mobile terminal device 3. FIG. 8C shows the voice data 48c when the operation of the third step is guided to the user with an image. Since the operation to be performed by the user in the third step is the operation of closing the tray 1, when the voice data 48c corresponding to the third step is reproduced as shown in FIG. 8C, the mobile terminal device 3 starts the operation. The voice "Please close tray 1" is output. However, such voice guidance is more difficult for the user to accurately grasp the position of the tray 1 than the image guidance.

このように操作案内登録情報48には、ユーザーが行うべき操作のステップごとに、画像による案内を行うための画像データ48bと、音声による案内を行うための音声データ48cとが予め登録されている。尚、画像データ48bは、音声データ48cと同様の音声を含むデータであっても構わない。ただし、画像データ48bに基づく動画を表示するときに音声を同時に出力するようにすると、CPU40aには動画表示のための負荷と音声再生のための負荷とが同時にかかることになり、携帯端末装置3の電力消費量が高くなる。これを抑制するためには、画像データ48bを、音声を含まないデータで構成することが好ましい。 In this way, in the operation guidance registration information 48, image data 48b for performing image guidance and voice data 48c for performing voice guidance are registered in advance for each operation step to be performed by the user. .. The image data 48b may be data including audio similar to the audio data 48c. However, if the sound is output at the same time when the moving image based on the image data 48b is displayed, the load for displaying the moving image and the load for reproducing the sound are simultaneously applied to the CPU 40a, and the mobile terminal device 3 Power consumption is high. In order to suppress this, it is preferable that the image data 48b is composed of data that does not include audio.

案内方法判別部72は、上記のような操作案内登録情報48を参照することにより、画像処理装置2から受信した操作情報に対応するステップにおいてユーザーが両手操作を行う必要があるか否かを判別する。エラーを解除するために両手操作を行うことが必要な場合、ユーザーは携帯端末装置3を片手に持った状態で操作を行うことができない。そのため、携帯端末装置3の表示部41に画像データ48bに基づく画像による案内を表示したとしても、ユーザーは、画像による案内を見ることができない。そこで案内方法判別部72は、両手操作を行うことが必要な場合、音声による案内を行うことを決定する。 The guidance method determination unit 72 determines whether or not the user needs to perform a two-handed operation in the step corresponding to the operation information received from the image processing device 2 by referring to the operation guidance registration information 48 as described above. To do. When it is necessary to perform a two-handed operation in order to clear the error, the user cannot perform the operation while holding the mobile terminal device 3 in one hand. Therefore, even if the display unit 41 of the mobile terminal device 3 displays the guidance by the image based on the image data 48b, the user cannot see the guidance by the image. Therefore, the guidance method determination unit 72 decides to perform voice guidance when it is necessary to perform a two-handed operation.

これに対し、片手で操作を行うことが可能な場合、ユーザーは携帯端末装置3を一方の手に持った状態で他方の手で操作を行うことができる。つまり、片手で操作を行うことが可能な場合、ユーザーは、画像による案内を見ながら操作を進めることができる。そこで案内方法判別部72は、画像処理装置2から受信した操作情報に対応するステップにおいてユーザーが片手で操作を行うことが可能な場合、画像による案内を行うことを決定する。 On the other hand, when the operation can be performed with one hand, the user can perform the operation with the other hand while holding the mobile terminal device 3 in one hand. That is, when the operation can be performed with one hand, the user can proceed with the operation while looking at the guidance by the image. Therefore, the guidance method determination unit 72 determines that the guidance by the image is performed when the user can perform the operation with one hand in the step corresponding to the operation information received from the image processing device 2.

案内方法判別部72は、画像処理装置2から操作情報を受信する都度、上記のような判別処理を行う。すなわち、案内方法判別部72は、ユーザーが行うべき操作に含まれるステップごとに、音声による案内と、画像による案内とのいずれの方法で案内を行うかを決定する。 The guidance method discrimination unit 72 performs the above-mentioned discrimination processing each time the operation information is received from the image processing device 2. That is, the guidance method determination unit 72 determines which method of guidance, voice guidance or image guidance, is performed for each step included in the operation to be performed by the user.

また案内方法判別部72は、画像認識部81、操作検知部82、音声認識部83及び加速度判定部84を備えている。そして案内方法判別部72は、画像認識部81、操作検知部82、音声認識部83及び加速度判定部84のそれぞれの検知結果に基づいて音声による案内と画像による案内との切り替えを行うことができるように構成される。 Further, the guidance method determination unit 72 includes an image recognition unit 81, an operation detection unit 82, a voice recognition unit 83, and an acceleration determination unit 84. Then, the guidance method determination unit 72 can switch between voice guidance and image guidance based on the detection results of the image recognition unit 81, the operation detection unit 82, the voice recognition unit 83, and the acceleration determination unit 84, respectively. It is configured as follows.

画像認識部81は、撮像部45を駆動して表示部41の正面側を撮影した撮影画像を取得し、その撮影画像にユーザーの顔画像が含まれるか否かを認識する処理部である。例えば画像認識部81は、携帯端末装置3においてアプリケーションが起動し、画像処理装置2との連携動作を行っている状態のときに、一定周期で撮像部45を駆動し、撮影画像を一定周期で取得する。そして画像認識部81は、撮像部45から撮影画像を取得する度に、その撮影画像にユーザーの顔画像が含まれているか否かを認識する。このような画像認識を一定周期間隔で行うことにより、ユーザーが表示部41を視認しているか否かを逐次判定することができるようになる。 The image recognition unit 81 is a processing unit that drives the image pickup unit 45 to acquire a photographed image of the front side of the display unit 41 and recognizes whether or not the photographed image includes a user's face image. For example, the image recognition unit 81 drives the image pickup unit 45 at regular intervals when the application is started in the mobile terminal device 3 and is performing the cooperative operation with the image processing device 2, and captures images at regular intervals. get. Then, each time the image recognition unit 81 acquires a photographed image from the image pickup unit 45, the image recognition unit 81 recognizes whether or not the photographed image includes the user's face image. By performing such image recognition at regular cycle intervals, it becomes possible to sequentially determine whether or not the user is visually recognizing the display unit 41.

画像認識部81によって撮影画像にユーザーの顔画像が含まれると判定された場合、案内方法判別部72は、画像による案内を行うことを決定する。つまり、ユーザーが行うべき操作が両手で行うことが必要な操作であっても、ユーザーが表示部41を視認している可能性があれば、画像による案内を行うことを決定するのである。 When the image recognition unit 81 determines that the captured image includes the user's face image, the guidance method determination unit 72 determines to perform guidance by the image. That is, even if the operation to be performed by the user is an operation that needs to be performed by both hands, if there is a possibility that the user is visually recognizing the display unit 41, it is decided to perform guidance by an image.

これに対し、画像認識部81によって撮影画像にユーザーの顔画像が含まれないと判定された場合、案内方法判別部72は、音声による案内を行うことを決定する。つまり、ユーザーが行うべき操作が片手で行うことが可能な操作であっても、ユーザーが表示部41を視認していないのであれば、画像による案内を行う必要がなく、寧ろ音声による案内を行うことが好ましいため、音声による案内を行うことを決定するのである。ただし、操作案内登録情報48を参照して決定される案内方法が画像による案内であった場合には、撮影画像にユーザーの顔画像が含まれるか否かを判定することなく、画像による案内を行うようにしても良い。なぜなら、音声による案内よりも画像による案内の方がユーザーにとって分かり易いからである。 On the other hand, when the image recognition unit 81 determines that the captured image does not include the user's face image, the guidance method determination unit 72 determines to perform voice guidance. That is, even if the operation to be performed by the user is an operation that can be performed with one hand, if the user does not visually recognize the display unit 41, it is not necessary to perform guidance by image, but rather guidance by voice is performed. Therefore, it is decided to provide voice guidance. However, if the guidance method determined by referring to the operation guidance registration information 48 is image guidance, the image guidance is performed without determining whether or not the captured image includes the user's face image. You may do it. This is because the image guidance is easier for the user to understand than the voice guidance.

操作検知部82は、操作部42に対するユーザーの操作を検知する。操作検知部82が検知するユーザーの操作には、画像による案内を音声による案内に切り替える操作、音声による案内を画像による案内に切り替える操作、音声又は画像による案内を一時停止させる操作、音声又は画像による案内を再生させる操作などが含まれる。案内方法判別部72は、操作検知部82によってそれらの操作が検知された場合には、ユーザーの操作に応じた処理を行う。 The operation detection unit 82 detects the user's operation on the operation unit 42. The user's operation detected by the operation detection unit 82 includes an operation of switching the image guidance to the voice guidance, an operation of switching the voice guidance to the image guidance, an operation of pausing the voice or image guidance, and a voice or image. The operation to play the guidance is included. When the operation detection unit 82 detects these operations, the guidance method determination unit 72 performs a process according to the user's operation.

音声認識部83は、マイクから出力される音声信号に基づいてユーザーの音声を認識することにより、携帯端末装置3に対するユーザーの音声による操作を検知する。音声認識部83が検知するユーザーの音声による操作には、上記と同様に、画像による案内を音声による案内に切り替える操作、音声による案内を画像による案内に切り替える操作、音声又は画像による案内を一時停止させる操作、音声又は画像による案内を再生させる操作などが含まれる。そして案内方法判別部72は、音声認識部83によってそれらの操作が検知された場合には、ユーザーの音声による操作に応じた処理を行う。 The voice recognition unit 83 detects the user's voice operation on the mobile terminal device 3 by recognizing the user's voice based on the voice signal output from the microphone. For the user's voice operation detected by the voice recognition unit 83, the operation of switching the image guidance to the voice guidance, the operation of switching the voice guidance to the image guidance, and the voice or image guidance are paused in the same manner as described above. The operation of causing the user to play, the operation of playing back the guidance by voice or image, and the like are included. Then, when the voice recognition unit 83 detects those operations, the guidance method determination unit 72 performs a process according to the operation by the user's voice.

加速度判定部84は、加速度センサー49の出力を監視し、加速度センサー49が加速度を検知している状態であるか否かを判定する。上述したように、加速度センサー49は、ユーザーが携帯端末装置3を所持しているときにはユーザーの動作に伴う加速度を検知するのに対し、ユーザーが携帯端末装置3を所持していないときには加速度を検知しない。そのため、加速度センサー49が加速度を検知している状態であれば、ユーザーが携帯端末装置3を持った状態で表示部41を視認している可能性があると言える。そこで加速度判定部84は、加速度センサー49からの出力に基づき、ユーザーが表示部41を視認している可能性があるか否かを判定するのである。 The acceleration determination unit 84 monitors the output of the acceleration sensor 49 and determines whether or not the acceleration sensor 49 is in a state of detecting acceleration. As described above, the acceleration sensor 49 detects the acceleration associated with the user's movement when the user possesses the mobile terminal device 3, whereas the acceleration sensor 49 detects the acceleration when the user does not possess the mobile terminal device 3. do not. Therefore, if the acceleration sensor 49 is in the state of detecting the acceleration, it can be said that the user may be visually recognizing the display unit 41 while holding the mobile terminal device 3. Therefore, the acceleration determination unit 84 determines whether or not there is a possibility that the user is visually recognizing the display unit 41 based on the output from the acceleration sensor 49.

加速度判定部84によって加速度が検知されている状態であると判定された場合、案内方法判別部72は、画像による案内を行うことを決定する。つまり、ユーザーが行うべき操作が両手で行うことが必要な操作であっても、ユーザーが表示部41を視認している可能性があれば、画像による案内を行うことを決定するのである。 When it is determined that the acceleration is detected by the acceleration determination unit 84, the guidance method determination unit 72 determines to perform guidance by an image. That is, even if the operation to be performed by the user is an operation that needs to be performed by both hands, if there is a possibility that the user is visually recognizing the display unit 41, it is decided to perform guidance by an image.

これに対し、加速度判定部84によって加速度が検知されていない状態であると判定された場合、案内方法判別部72は、音声による案内を行うことを決定する。つまり、ユーザーが行うべき操作が片手で行うことが可能な操作であっても、ユーザーが表示部41を視認していないのであれば、画像による案内を行う必要がなく、寧ろ音声による案内を行うことが好ましいため、音声による案内を行うことを決定するのである。ただし、操作案内登録情報48を参照して決定される案内方法が画像による案内であった場合には、加速度が検知されている状態であるか否かを判定することなく、画像による案内を行うようにしても良い。なぜなら、音声による案内よりも画像による案内の方がユーザーにとって分かり易いからである。 On the other hand, when the acceleration determination unit 84 determines that the acceleration is not detected, the guidance method determination unit 72 determines to perform voice guidance. That is, even if the operation to be performed by the user is an operation that can be performed with one hand, if the user does not visually recognize the display unit 41, it is not necessary to perform guidance by image, but rather guidance by voice is performed. Therefore, it is decided to provide voice guidance. However, when the guidance method determined by referring to the operation guidance registration information 48 is the guidance by the image, the guidance by the image is performed without determining whether or not the acceleration is detected. You may do so. This is because the image guidance is easier for the user to understand than the voice guidance.

上記のように案内方法判別部72は、画像認識部81及び加速度判定部84のそれぞれの判定結果に基づいて音声による案内と画像による案内とを切り替えることが可能である。そのため、案内方法判別部72は、ユーザーによる携帯端末装置3の保持状態又はユーザーによる携帯端末装置3の視認状態に応じて音声による案内と画像による案内とを切り替えることが可能である。また案内方法判別部72において、画像認識部81及び加速度判定部84のいずれの判定結果を優先的に採用して案内方法を切り替えるかについては任意である。 As described above, the guidance method determination unit 72 can switch between voice guidance and image guidance based on the respective determination results of the image recognition unit 81 and the acceleration determination unit 84. Therefore, the guidance method determination unit 72 can switch between voice guidance and image guidance according to the holding state of the mobile terminal device 3 by the user or the visual state of the mobile terminal device 3 by the user. Further, it is arbitrary which of the image recognition unit 81 and the acceleration determination unit 84 is preferentially adopted in the guidance method determination unit 72 to switch the guidance method.

操作案内部73は、案内方法判別部72によって決定される案内方法に基づき、ユーザーが行うべき操作の案内処理を行うものである。この操作案内部73は、音声案内部74と、画像案内部75とを備えており、案内方法判別部72の決定結果に基づき音声案内部74及び画像案内部75を択一的に動作させる。 The operation guidance unit 73 performs guidance processing for operations to be performed by the user based on the guidance method determined by the guidance method determination unit 72. The operation guide unit 73 includes a voice guide unit 74 and an image guide unit 75, and the voice guide unit 74 and the image guide unit 75 are selectively operated based on the determination result of the guide method determination unit 72.

音声案内部74は、音声による案内を行う処理部であり、画像処理装置2から受信した操作情報に対応するステップの音声データ48cを読み出し、その音声データ48cに基づいてスピーカー44を駆動することにより、スピーカー44から音声による案内を出力させる。すなわち、音声案内部74は、音声データ48cに基づく音声再生処理をCPU40aに行わせることにより、音声に基づく案内をスピーカー44から出力させるのである。また音声案内部74は、案内方法判別部72から音声による案内の一時停止や再生が指示された場合には、案内方法判別部72からの指示に基づいて音声による案内を一時停止させたり、再生したりする。 The voice guidance unit 74 is a processing unit that performs voice guidance, and reads out the voice data 48c of the step corresponding to the operation information received from the image processing device 2, and drives the speaker 44 based on the voice data 48c. , The voice guidance is output from the speaker 44. That is, the voice guidance unit 74 causes the CPU 40a to perform voice reproduction processing based on the voice data 48c, so that guidance based on the voice is output from the speaker 44. Further, when the guidance method determination unit 72 instructs the voice guidance unit 74 to pause or play the voice guidance, the voice guidance unit 74 suspends or reproduces the voice guidance based on the instruction from the guidance method determination unit 72. To do.

音声案内部74によって音声による案内が行われているとき、操作案内部73は、表示部41に供給する電源をオフにしても良い。この場合において、操作部42がユーザーの操作を検知した場合、或いは、マイク43がユーザーの音声を検知した場合に、操作案内部73は、表示部41に対し、音声による案内を画像による案内に切り替える操作、音声による案内を一時停止させる操作、音声による案内を再生させる操作などを行うことが可能な画面を表示させることが好ましい。 When the voice guidance unit 74 provides voice guidance, the operation guidance unit 73 may turn off the power supplied to the display unit 41. In this case, when the operation unit 42 detects the user's operation or the microphone 43 detects the user's voice, the operation guidance unit 73 converts the voice guidance into the image guidance to the display unit 41. It is preferable to display a screen capable of performing a switching operation, an operation of pausing voice guidance, an operation of playing voice guidance, and the like.

画像案内部75は、画像による案内を行う処理部であり、画像処理装置2から受信した操作情報に対応するステップの画像データ48bを読み出し、その画像データ48bに基づいて表示部41に動画像を表示させる。すなわち、画像案内部75は、画像データ48bに基づく動画再生処理をCPU40aに行わせることにより、画像に基づく案内を表示部41に表示させるのである。また画像案内部75は、案内方法判別部72から画像による案内の一時停止や再生が指示された場合には、案内方法判別部72からの指示に基づいて画像による案内を一時停止させたり、再生したりする。尚、音声案内部74によって音声による案内が行われているとき、操作案内部73は、スピーカー44を駆動しないようにしても良い。 The image guidance unit 75 is a processing unit that guides by an image, reads out image data 48b of a step corresponding to the operation information received from the image processing device 2, and displays a moving image on the display unit 41 based on the image data 48b. Display it. That is, the image guidance unit 75 causes the CPU 40a to perform the moving image reproduction processing based on the image data 48b, so that the guidance based on the image is displayed on the display unit 41. Further, when the guidance method determination unit 72 instructs the image guidance unit 75 to pause or play the image guidance, the image guidance unit 75 suspends or reproduces the image guidance based on the instruction from the guidance method determination unit 72. To do. The operation guidance unit 73 may not drive the speaker 44 when the voice guidance unit 74 provides voice guidance.

また案内方法判別部72は、操作案内部73の音声案内部74を動作させることによって音声による案内を行わせているときに画像処理装置2から誤操作情報を受信した場合、操作案内部73に対して音声による案内を画像による案内に切り替えることをユーザーに促すように指示をする。そして操作案内部73は、音声案内部74を制御し、音声による案内を画像による案内に切り替えることを促す音声をスピーカー44から出力させる。これにより、ユーザーは、手動操作で音声による案内を画像による案内に切り替えて画像による案内を視認するため、正しい操作内容を容易に把握することができるようになる。 Further, when the guidance method determination unit 72 receives erroneous operation information from the image processing device 2 while performing voice guidance by operating the voice guidance unit 74 of the operation guidance unit 73, the guidance method determination unit 72 is directed to the operation guidance unit 73. Instruct the user to switch from voice guidance to image guidance. Then, the operation guidance unit 73 controls the voice guidance unit 74, and outputs a voice prompting the switching of the voice guidance to the image guidance from the speaker 44. As a result, the user can manually switch the voice guidance to the image guidance and visually recognize the image guidance, so that the correct operation content can be easily grasped.

また案内方法判別部72は、操作案内部73に音声による案内を行わせている状態において、ユーザーが操作に手間取っていると判断した場合にも、操作案内部73に対して音声による案内を画像による案内に切り替えることをユーザーに促すように指示をする。ユーザーが操作に手間取っているか否かの判断は、例えば音声案内部74が音声による案内を行ってから所定時間が経過したときに、操作情報受信部71が次のステップに対応する操作情報を受信しているか否かを判断することによって行われる。そしてユーザーが操作に手間取っていると判断されると、操作案内部73は、音声案内部74を制御し、音声による案内を画像による案内に切り替えることを促す音声をスピーカー44から出力させる。これにより、ユーザーは、手動操作で音声による案内を画像による案内に切り替えて画像による案内を視認するため、エラーを解除するための正しい操作内容を速やかに把握することができるようになる。 Further, the guidance method determination unit 72 also provides an image of voice guidance to the operation guidance unit 73 even when it is determined that the user is taking time to operate the operation guidance unit 73 in a state where the operation guidance unit 73 is performing voice guidance. Instruct the user to switch to the guidance provided by. To determine whether or not the user is taking time to operate, for example, when a predetermined time elapses after the voice guidance unit 74 provides voice guidance, the operation information receiving unit 71 receives the operation information corresponding to the next step. It is done by judging whether or not it is done. Then, when it is determined that the user is taking time to operate, the operation guidance unit 73 controls the voice guidance unit 74, and outputs a voice prompting the user to switch the voice guidance to the image guidance from the speaker 44. As a result, the user manually switches the voice guidance to the image guidance and visually recognizes the image guidance, so that the user can quickly grasp the correct operation content for canceling the error.

また案内方法判別部72は、画像処理装置2から受信した操作情報に基づいて音声による案内を行うことを決定した場合、操作案内部73に音声による案内を行わせる前に、画像による案内を行わせるようにしても良い。音声による案内は画像による案内よりも操作位置などを特定することが難しいため、音声による案内を行う前に、ユーザーに画像による案内を見せておくことでユーザーが操作位置などを特定し易くなるという利点がある。 Further, when the guidance method determination unit 72 decides to perform voice guidance based on the operation information received from the image processing device 2, the guidance method determination unit 72 performs image guidance before causing the operation guidance unit 73 to perform voice guidance. You may let it. Since it is more difficult to specify the operation position etc. than the image guidance in the voice guidance, it is easier for the user to specify the operation position etc. by showing the user the image guidance before performing the voice guidance. There are advantages.

さらに案内方法判別部72は、音声による案内を行っているときに、画像認識部81によってユーザーの顔画像が認識された場合、或いは、加速度判定部84によって加速度が検知された場合、そのタイミングで案内方法を音声による案内から画像による案内に切り替えるようにしても良い。 Further, when the guidance method determination unit 72 recognizes the user's face image by the image recognition unit 81 or the acceleration is detected by the acceleration determination unit 84 while performing voice guidance, the guidance method determination unit 72 is at that timing. The guidance method may be switched from voice guidance to image guidance.

次に図9は、画像処理装置2でエラーが発生した場合に画像処理装置2及び携帯端末装置3が互いに連携しながら行うプロセスの流れを示す図である。図9に示すように、画像処理装置2は、エラーを検知すると(プロセスP1)、まずエラーが発生したことを報知する(プロセスP2)これにより、画像処理装置2の近傍に居るユーザーは、画像処理装置2においてエラーが発生したことを把握することができる。そして携帯端末装置3は、ユーザーによるアプリケーションの起動指示に基づいてアプリケーションを起動させる(プロセスP3)。ただし、これに限らず、尚、携帯端末装置3は、画像処理装置2からの命令に基づいてアプリケーションを自動起動させるものであっても構わない。 Next, FIG. 9 is a diagram showing a flow of a process performed by the image processing device 2 and the mobile terminal device 3 in cooperation with each other when an error occurs in the image processing device 2. As shown in FIG. 9, when the image processing device 2 detects an error (process P1), it first notifies that an error has occurred (process P2). As a result, the user in the vicinity of the image processing device 2 can see the image. It is possible to grasp that an error has occurred in the processing device 2. Then, the mobile terminal device 3 starts the application based on the user's instruction to start the application (process P3). However, the present invention is not limited to this, and the mobile terminal device 3 may automatically start the application based on the command from the image processing device 2.

画像処理装置2は、エラーを報知すると、そのエラーを解除するためにユーザーが行うべき解除操作を特定する(ステップS4)。そして画像処理装置2は、その解除操作に含まれる複数のステップのうちからユーザーが最初に行うべきステップの操作情報D10を生成し(ステップS5)、その操作情報D10を携帯端末装置3へ送信する(プロセスP6)。 When the image processing device 2 notifies the error, the image processing device 2 specifies a release operation to be performed by the user in order to release the error (step S4). Then, the image processing device 2 generates the operation information D10 of the step to be performed first by the user from the plurality of steps included in the release operation (step S5), and transmits the operation information D10 to the mobile terminal device 3. (Process P6).

携帯端末装置3は、画像処理装置2から送信される操作情報D10を受信すると(プロセスP7)、ユーザーに対する解除操作の案内方法を判別する(プロセスP8)。このとき、携帯端末装置3は、画像処理装置2から受信した操作情報D10に対応するステップにおいてユーザーが行うべき操作が両手操作であるか否か、撮像部45によって撮影された撮影画像にユーザーの顔画像が含まれるか否か、又は、加速度センサー49によって加速度が検知されているか否かに応じて、音声による案内と画像による案内とのいずれか一方を決定する。そして携帯端末装置3は、プロセスP8における判別結果に基づき、音声による案内と画像による案内とのいずれか一方でエラーを解除するための操作を案内する(プロセスP9)。 When the mobile terminal device 3 receives the operation information D10 transmitted from the image processing device 2 (process P7), the mobile terminal device 3 determines a method of guiding the release operation to the user (process P8). At this time, the mobile terminal device 3 determines whether or not the operation to be performed by the user in the step corresponding to the operation information D10 received from the image processing device 2 is a two-handed operation, and the photographed image captured by the image pickup unit 45 is displayed by the user. Depending on whether or not the face image is included or whether or not the acceleration is detected by the acceleration sensor 49, either the voice guidance or the image guidance is determined. Then, the mobile terminal device 3 guides the operation for canceling the error in either the voice guidance or the image guidance based on the determination result in the process P8 (process P9).

その後、画像処理装置2は、センサー群19から得られる情報に基づき、ユーザーが行うべき操作のステップが進行したことを検知すると(プロセスP10)、次のステップに対応する操作情報D11を生成し、その操作情報D11を携帯端末装置3へ送信する(プロセスP11)。また携帯端末装置3は、画像処理装置2から送信される次のステップの操作情報D11を受信すると(プロセスP12)、上記と同様に、ユーザーに対する解除操作の案内方法を判別し(プロセスP13)、その判別結果に基づいて、音声による案内と画像による案内とのいずれか一方でエラーを解除するための操作を案内する(プロセスP14)。以後、画像処理装置2においてエラーが解除されたと判定されるまで、同様の処理が繰り返される。 After that, when the image processing device 2 detects that the step of the operation to be performed by the user has progressed based on the information obtained from the sensor group 19, the image processing device 2 generates the operation information D11 corresponding to the next step. The operation information D11 is transmitted to the mobile terminal device 3 (process P11). Further, when the mobile terminal device 3 receives the operation information D11 of the next step transmitted from the image processing device 2 (process P12), the mobile terminal device 3 determines the method of guiding the release operation to the user (process P13) in the same manner as described above. Based on the determination result, the operation for canceling the error is guided by either the voice guidance or the image guidance (process P14). After that, the same process is repeated until it is determined that the error is cleared in the image processing device 2.

次に画像処理装置2において行われる処理について説明する。図10は、画像処理装置2において行われる処理手順の一例を示すフローチャートである。この処理は、画像処理装置2においてエラーが検知されることに伴って開始される。画像処理装置2は、この処理を開始すると、まずエラーを検知したセンサーを特定する(ステップS10)。センサーを特定することができると、画像処理装置2は、エラー判別情報15を参照し(ステップS11)、ユーザーが行うべき解除操作を特定する(ステップS12)。そして画像処理装置2は、特定した解除操作に含まれる複数のステップのうちからユーザーが行うべきステップを特定し、その特定したステップに対応する操作情報を生成して携帯端末装置3へ送信する(ステップS13,S14)。 Next, the processing performed in the image processing apparatus 2 will be described. FIG. 10 is a flowchart showing an example of a processing procedure performed by the image processing apparatus 2. This process is started when an error is detected in the image processing device 2. When the image processing device 2 starts this processing, it first identifies the sensor that has detected the error (step S10). When the sensor can be specified, the image processing device 2 refers to the error determination information 15 (step S11) and specifies the release operation to be performed by the user (step S12). Then, the image processing device 2 identifies a step to be performed by the user from the plurality of steps included in the specified release operation, generates operation information corresponding to the specified step, and transmits the operation information to the mobile terminal device 3 ( Steps S13 and S14).

その後、画像処理装置2は、センサー群19に含まれる各センサーの出力を監視し、ユーザーによる操作が行われたことを検知するまで待機する(ステップS15)。ユーザーによる操作が行われたことを検知した場合(ステップS15でYES)、画像処理装置2は、センサー群19から得られる情報に基づいてユーザーによって行われた操作が正しい操作であるか否かを判別する(ステップS16)。その結果、ユーザーによって行われた操作が正しい操作ではなかった場合(ステップS16でNO)、画像処理装置2は、誤操作情報を携帯端末装置3へ送信する(ステップS17)。これに対し、ユーザーによって行われた操作が正しい操作であった場合(ステップS16でYES)、画像処理装置2は、ユーザーが行うべき解除操作に次のステップが存在するか否かを判別し(ステップS18)、次のステップが存在すれば(ステップS18でYES)、ステップS13に戻って上述した処理を繰り返す。これに対し、次のステップが存在しない場合(ステップS18でNO)、画像処理装置2は、エラーが解除されたと判断し、エラー解除通知を携帯端末装置3へ送信する(ステップS19)。以上で、画像処理装置2における処理が終了する。 After that, the image processing device 2 monitors the output of each sensor included in the sensor group 19, and waits until it detects that the operation by the user has been performed (step S15). When it is detected that the operation performed by the user has been performed (YES in step S15), the image processing device 2 determines whether or not the operation performed by the user is a correct operation based on the information obtained from the sensor group 19. Determine (step S16). As a result, when the operation performed by the user is not a correct operation (NO in step S16), the image processing device 2 transmits erroneous operation information to the mobile terminal device 3 (step S17). On the other hand, when the operation performed by the user is a correct operation (YES in step S16), the image processing device 2 determines whether or not the next step exists in the release operation to be performed by the user (YES in step S16). In step S18), if the next step exists (YES in step S18), the process returns to step S13 and the above-described processing is repeated. On the other hand, when the next step does not exist (NO in step S18), the image processing device 2 determines that the error has been cleared and transmits an error clearing notification to the mobile terminal device 3 (step S19). This completes the processing in the image processing device 2.

次に携帯端末装置3において行われる処理について説明する。図11は、携帯端末装置3において行われる主たる処理手順の一例を示すフローチャートである。この処理は、携帯端末装置3において画像処理装置2と連携するアプリケーションが起動することによって開始される。携帯端末装置3は、この処理を開始すると、まず操作案内登録情報48を読み出す(ステップS20)。そして携帯端末装置3は、画像処理装置2から操作情報を受信するまで待機する状態となる(ステップS21)。 Next, the processing performed in the mobile terminal device 3 will be described. FIG. 11 is a flowchart showing an example of a main processing procedure performed in the mobile terminal device 3. This process is started when the application linked with the image processing device 2 is started in the mobile terminal device 3. When the mobile terminal device 3 starts this process, it first reads the operation guide registration information 48 (step S20). Then, the mobile terminal device 3 is in a state of waiting until the operation information is received from the image processing device 2 (step S21).

画像処理装置2から操作情報を受信すると(ステップS21でYES)、携帯端末装置3は、操作案内登録情報48を参照し(ステップS22)、今回のステップでユーザーが行うべき操作が両手で行うことが必要な操作であるか否かを判断する(ステップS23)。その結果、片手で行うことが可能な操作である場合(ステップS23でNO)、携帯端末装置3は、案内方法として、画像による案内を決定する。これに対し、両手で行うことが必要な操作である場合(ステップS23でYES)、携帯端末装置3は、撮像部45を駆動し(ステップS24)、撮影画像を取得する(ステップS25)。そして携帯端末装置3は、撮影画像にユーザーの顔画像が含まれているか否かを判断し(ステップS26)、ユーザーの顔画像が含まれていなければ(ステップS26でNO)、更に加速度センサー49が加速度を検知中であるか否かを判断する(ステップS27)。そして加速度センサー49が加速度を検知していない場合(ステップS27でNO)、携帯端末装置3は、案内方法として、音声による案内を決定する。尚、撮影画像にユーザーの顔画像が含まれている場合(ステップS26でYES)、或いは、加速度センサー49が加速度を検知中である場合(ステップS27でYES)、携帯端末装置3は、案内方法として、画像による案内を決定する。 When the operation information is received from the image processing device 2 (YES in step S21), the mobile terminal device 3 refers to the operation guide registration information 48 (step S22), and the operation to be performed by the user in this step is performed with both hands. Is determined whether or not is a necessary operation (step S23). As a result, when the operation can be performed with one hand (NO in step S23), the mobile terminal device 3 determines the guidance by the image as the guidance method. On the other hand, when the operation needs to be performed with both hands (YES in step S23), the mobile terminal device 3 drives the imaging unit 45 (step S24) and acquires a captured image (step S25). Then, the mobile terminal device 3 determines whether or not the captured image includes the user's face image (step S26), and if the photographed image does not include the user's face image (NO in step S26), the acceleration sensor 49 further. Determines whether or not is detecting acceleration (step S27). Then, when the acceleration sensor 49 does not detect the acceleration (NO in step S27), the mobile terminal device 3 determines the guidance by voice as the guidance method. If the captured image includes a user's face image (YES in step S26), or if the acceleration sensor 49 is detecting acceleration (YES in step S27), the mobile terminal device 3 is a guidance method. As a result, the guidance by the image is determined.

携帯端末装置3は、音声による案内を決定した場合、今回のステップに対応する音声データ48cを読み出し(ステップS28)、その音声データ48cに基づく再生処理を開始することにより音声による案内を開始する(ステップS29)。そして携帯端末装置3は、音声による案内を開始することに伴い、時間計測を開始する(ステップS30)。 When the mobile terminal device 3 determines the voice guidance, the mobile terminal device 3 reads the voice data 48c corresponding to the current step (step S28) and starts the reproduction process based on the voice data 48c to start the voice guidance (step S28). Step S29). Then, the mobile terminal device 3 starts time measurement as the voice guidance is started (step S30).

また携帯端末装置3は、画像による案内を決定した場合、今回のステップに対応する画像データ48bを読み出し(ステップS31)、その画像データ48bに基づく動画再生処理を開始することにより画像による案内を開始する(ステップS32)。 Further, when the mobile terminal device 3 determines the guidance by the image, the image data 48b corresponding to the current step is read out (step S31), and the moving image reproduction process based on the image data 48b is started to start the guidance by the image. (Step S32).

携帯端末装置3は、音声又は画像による案内を開始すると、操作案内処理を行う(ステップS33)。図12は、この操作案内処理(ステップS33)の詳細な処理手順の一例を示すフローチャートである。携帯端末装置3は、図12に示す処理を開始すると、まず音声による案内を実行中であるか否かを判断する(ステップS40)。尚、ここでは、音声による案内が行われた後、次のステップに進んでいない状態であっても、YESと判断される。音声による案内が行われている場合(ステップS40でYES)、携帯端末装置3は、ステップS30で計測を開始した時間が所定時間を経過したか否かを判断し(ステップS41)、所定時間を経過していれば(ステップS41でYES)、ユーザーに対し、音声による案内を画像による案内に切り替えることを促す処理を行う(ステップS42)。ここで、所定時間は、例えば3〜5分程度の時間であり、ユーザーが解除操作に手間取っていると判断するのに十分な時間が予め設定される。これに対し、音声による案内が行われていない場合(ステップS40でNO)、又は、所定時間が経過していない場合(ステップS41でNO)、ステップS42の処理は行われずにスキップする。 When the mobile terminal device 3 starts the guidance by voice or image, the mobile terminal device 3 performs the operation guidance process (step S33). FIG. 12 is a flowchart showing an example of a detailed processing procedure of this operation guidance process (step S33). When the mobile terminal device 3 starts the process shown in FIG. 12, it first determines whether or not the voice guidance is being executed (step S40). Here, even if the user has not proceeded to the next step after the voice guidance is given, it is determined to be YES. When the voice guidance is performed (YES in step S40), the mobile terminal device 3 determines whether or not the time at which the measurement is started in step S30 has elapsed (step S41), and sets the predetermined time. If it has passed (YES in step S41), a process is performed to urge the user to switch the voice guidance to the image guidance (step S42). Here, the predetermined time is, for example, about 3 to 5 minutes, and a sufficient time is set in advance for the user to determine that the release operation is taking time. On the other hand, when the voice guidance is not performed (NO in step S40) or the predetermined time has not elapsed (NO in step S41), the process of step S42 is skipped without being performed.

次に携帯端末装置3は、画像処理装置2から誤操作情報を受信したか否かを判断する(ステップS43)。誤操作情報を受信した場合(ステップS43でYES)、携帯端末装置3は、ユーザーに対して誤操作を報知する(ステップS44)。この報知は、例えば携帯端末装置3のスピーカー44から警告音を発生させることにより行われる。そして携帯端末装置3は、ステップS40と同様に音声による案内を行っているか否かを判断し(ステップS45)、音声による案内が行われていれば(ステップS45でYES)、ユーザーに対し、音声による案内を画像による案内に切り替えることを促す処理を行う(ステップS46)。また音声による案内が行われておらず、画像による案内が行われている場合(ステップS45でNO)、携帯端末装置3は、再び画像による案内をはじめから再生する(ステップS47)。これにより、ユーザーは、画像による案内を確認しながら、正しい操作を行うことができるようになる。尚、誤操作情報を受信していない場合(ステップS43でNO)、ステップS44〜S47の処理は行われずにスキップする。 Next, the mobile terminal device 3 determines whether or not erroneous operation information has been received from the image processing device 2 (step S43). When the erroneous operation information is received (YES in step S43), the mobile terminal device 3 notifies the user of the erroneous operation (step S44). This notification is performed, for example, by generating a warning sound from the speaker 44 of the mobile terminal device 3. Then, the mobile terminal device 3 determines whether or not the voice guidance is performed in the same manner as in step S40 (step S45), and if the voice guidance is performed (YES in step S45), the user is told by voice. A process for urging the user to switch the guidance by the image to the guidance by the image is performed (step S46). Further, when the voice guidance is not performed and the image guidance is performed (NO in step S45), the mobile terminal device 3 reproduces the image guidance again from the beginning (step S47). As a result, the user can perform the correct operation while checking the guidance by the image. If the erroneous operation information is not received (NO in step S43), the processes of steps S44 to S47 are skipped without being performed.

次に携帯端末装置3は、ユーザーの手動又は音声による指示を検知したか否かを判断する(ステップS48)。ユーザーの指示を検知した場合(ステップS48でYES)、携帯端末装置3は、ユーザーの指示が一時停止であるか否かを判断し(ステップS49)、一時停止であれば(ステップS49でYES)、音声又は画像による案内の一時停止処理を行う(ステップS50)。またユーザーの指示が一時停止でなかった場合(ステップS49でNO)、音声又は画像による案内の再生指示であるか否かを判断し(ステップS51)、再生指示であれば(ステップS51でYES)、音声又は画像による案内の再生処理を行う(ステップS52)。さらにユーザーの指示が再生指示でもなかった場合(ステップS51でNO)、案内方法の切り替え指示であるか否かを判断し(ステップS53)、案内方法の切り替え指示であれば(ステップS53でYES)、案内方法切り替え処理を行う(ステップS54)。この案内方法切り替え処理では、携帯端末装置3は、音声による案内を画像による案内に切り替える処理を行ったり、また画像による案内を音声による案内に切り替える処理を行ったりする。つまり、ユーザーは、自身の操作で案内方法の切り替えを行うこともできるのである。尚、ユーザーの指示が案内方法の切り替え指示でもなかった場合(ステップS53でNO)、ステップS54の処理は行われずにスキップする。この場合、その他のユーザーの指示に応じた処理を行うようにしても良い。またユーザーの手動又は音声による指示を検知していない場合(ステップS48でNO)も、上述した各処理をスキップする。以上で、操作案内処理(ステップS33)が終了する。 Next, the mobile terminal device 3 determines whether or not the user has detected a manual or voice instruction (step S48). When the user's instruction is detected (YES in step S48), the mobile terminal device 3 determines whether or not the user's instruction is paused (step S49), and if it is paused (YES in step S49). , Pause processing of guidance by voice or image (step S50). If the user's instruction is not paused (NO in step S49), it is determined whether or not it is a voice or image guidance reproduction instruction (step S51), and if it is a reproduction instruction (YES in step S51). , Reproduce the guidance by voice or image (step S52). Further, if the user's instruction is not a playback instruction (NO in step S51), it is determined whether or not it is a guidance method switching instruction (step S53), and if it is a guidance method switching instruction (YES in step S53). , Guidance method switching process is performed (step S54). In this guidance method switching process, the mobile terminal device 3 performs a process of switching the voice guidance to the image guidance, and a process of switching the image guidance to the voice guidance. In other words, the user can also switch the guidance method by his own operation. If the user's instruction is not a guidance method switching instruction (NO in step S53), the process of step S54 is skipped without being performed. In this case, the process may be performed according to the instruction of another user. Also, when the user's manual or voice instruction is not detected (NO in step S48), each of the above-mentioned processes is skipped. This completes the operation guidance process (step S33).

図11のフローチャートに戻り、携帯端末装置3は、操作案内処理(ステップS33)を行った後、画像処理装置2からエラー解除通知を受信したか否かを判断する(ステップS34)。エラー解除通知を受信していない場合には(ステップS34でNO)、更に次のステップに対応する操作情報を受信したか否かを判断する(ステップS35)。そして次のステップに対応する操作情報を受信していない場合(ステップS35でNO)、携帯端末装置3による処理はステップS33に戻り、上述した処理を繰り返す。また次のステップに対応する操作情報を受信した場合(ステップS35でYES)、携帯端末装置3による処理はステップS22に戻り、上述した処理を繰り返す。さらに画像処理装置2からエラー通知を受信した場合(ステップS34でYES)、携帯端末装置3において起動しているアプリケーションによる処理は終了する。 Returning to the flowchart of FIG. 11, the mobile terminal device 3 determines whether or not an error release notification has been received from the image processing device 2 after performing the operation guidance process (step S33) (step S34). If the error release notification has not been received (NO in step S34), it is determined whether or not the operation information corresponding to the next step has been received (step S35). Then, when the operation information corresponding to the next step is not received (NO in step S35), the process by the mobile terminal device 3 returns to step S33, and the above-described process is repeated. When the operation information corresponding to the next step is received (YES in step S35), the process by the mobile terminal device 3 returns to step S22, and the above-described process is repeated. Further, when an error notification is received from the image processing device 2 (YES in step S34), the processing by the application running in the mobile terminal device 3 ends.

上述したように本実施形態の携帯端末装置3は、画像処理装置2においてエラーが発生した場合に、画像処理装置2から送信される操作情報を受信し、その操作情報に基づいて、エラーを解除するためにユーザーが行うべき操作を音声又は画像で案内する構成である。そして携帯端末装置3は、ユーザーが行うべき操作の種類、又は、ユーザーによる携帯端末装置3の保持状態に応じて、音声による案内と画像による案内とを切り替えるように構成されている。したがって、本実施形態の携帯端末装置3は、従来のように音声と画像との双方でユーザーが行うべき操作を案内するものではなく、ユーザーが行うべき操作の種類やユーザーの保持状態などに応じて音声による案内と画像による案内とを択一的に切り替えることが可能であり、CPU40aに同時にかかる負荷を低減することができ、携帯端末装置3の電力消費量を低く抑えることができるようになる。 As described above, the mobile terminal device 3 of the present embodiment receives the operation information transmitted from the image processing device 2 when an error occurs in the image processing device 2, and cancels the error based on the operation information. It is a configuration that guides the operation to be performed by the user by voice or image. The mobile terminal device 3 is configured to switch between voice guidance and image guidance according to the type of operation to be performed by the user or the holding state of the mobile terminal device 3 by the user. Therefore, the mobile terminal device 3 of the present embodiment does not guide the operation to be performed by the user by both voice and image as in the conventional case, but depends on the type of operation to be performed by the user, the holding state of the user, and the like. It is possible to selectively switch between voice guidance and image guidance, the load applied to the CPU 40a at the same time can be reduced, and the power consumption of the mobile terminal device 3 can be suppressed to a low level. ..

以上、本発明に関する一実施形態について説明したが、本発明は、上記実施形態において説明した内容のものに限られるものではなく、種々の変形例が適用可能である。 Although one embodiment of the present invention has been described above, the present invention is not limited to the contents described in the above-described embodiment, and various modifications can be applied.

例えば上記実施形態において説明した画像処理装置2のエラーは、単なる一例である。したがって、画像処理装置2において発生するエラーには、上述したエラー以外のものが含まれていても構わない。 For example, the error of the image processing apparatus 2 described in the above embodiment is merely an example. Therefore, the error that occurs in the image processing apparatus 2 may include an error other than the above-mentioned error.

また上記実施形態では、携帯端末装置3において、ユーザーが行うべき操作が、両手で行う必要のある操作であるか、又は、片手で行うことが可能な操作であるかを判別する処理を行う場合を例示した。しかし、この判別処理は、画像処理装置2で行うようにしても良い。すなわち、画像処理装置2は、エラーを解除するためにユーザーが行うべき操作が、両手で行う必要のある操作であるか、又は、片手で行うことが可能な操作であるかを判別する判別手段を備えており、その判別手段による判別結果を操作情報と共に携帯端末装置3へ送信するように構成すれば良い。このような構成すれば、携帯端末装置3においてユーザーが行うべき操作が、両手で行う必要のある操作であるか、又は、片手で行うことが可能な操作であるかを判別する処理を行う必要がなくなるという利点がある。 Further, in the above embodiment, when the mobile terminal device 3 performs a process of determining whether the operation to be performed by the user is an operation that needs to be performed with both hands or an operation that can be performed with one hand. Was illustrated. However, this discrimination process may be performed by the image processing device 2. That is, the image processing device 2 is a discriminating means for determining whether the operation to be performed by the user in order to clear the error is an operation that needs to be performed with both hands or an operation that can be performed with one hand. , And the determination result by the determination means may be configured to be transmitted to the mobile terminal device 3 together with the operation information. With such a configuration, it is necessary to perform a process of determining whether the operation to be performed by the user in the mobile terminal device 3 is an operation that needs to be performed with both hands or an operation that can be performed with one hand. There is an advantage that there is no more.

また上記実施形態では、携帯端末装置3がユーザーによって占有的に所持されるスマートフォンやタブレット端末、パーソナルコンピュータなどで構成される場合を例示した。しかし、携帯端末装置3は、必ずしもユーザーによって占有的に所持される装置でなくても構わない。例えば、画像処理装置2の操作パネル11が、画像処理装置2の装置本体に対して着脱可能な場合には、画像処理装置2の装置本体から取り外した操作パネル11が上述した携帯端末装置3として機能するものであっても構わない。 Further, in the above embodiment, a case where the mobile terminal device 3 is composed of a smartphone, a tablet terminal, a personal computer or the like exclusively possessed by the user is illustrated. However, the mobile terminal device 3 does not necessarily have to be a device exclusively owned by the user. For example, when the operation panel 11 of the image processing device 2 is removable from the device body of the image processing device 2, the operation panel 11 removed from the device body of the image processing device 2 can be used as the mobile terminal device 3 described above. It does not matter if it works.

1 画像処理システム
2 画像処理装置
3 携帯端末装置
45 撮像部(撮像手段)
49 加速度センサー
61 エラー検知部(エラー検知手段)
62 操作情報生成部(操作情報生成手段)
63 操作判別部(操作判別手段)
64 操作情報送信部(操作情報送信手段)
71 操作情報受信部(操作情報受信手段)
72 案内方法判別部(判別手段)
73 操作案内部(案内手段)
81 画像認識部(画像認識手段)
1 Image processing system 2 Image processing device 3 Mobile terminal device 45 Imaging unit (imaging means)
49 Accelerometer 61 Error detection unit (error detection means)
62 Operation information generation unit (operation information generation means)
63 Operation discriminating unit (operation discriminating means)
64 Operation information transmission unit (operation information transmission means)
71 Operation information receiving unit (operation information receiving means)
72 Guidance method discrimination unit (discrimination means)
73 Operation guide (guidance means)
81 Image recognition unit (image recognition means)

Claims (26)

画像処理装置と携帯端末装置とが近距離通信を行うことが可能な画像処理システムであって、
前記画像処理装置は、
前記画像処理装置においてエラーが発生したことを検知するエラー検知手段と、
前記エラー検知手段によって検知されるエラーを解除するためにユーザーが行うべき操作を特定し、該操作に関する操作情報を生成する操作情報生成手段と、
前記操作情報生成手段によって生成される操作情報を前記携帯端末装置へ送信する操作情報送信手段と、を備え、
前記携帯端末装置は、
前記操作情報送信手段によって送信される操作情報を受信する操作情報受信手段と、
前記操作情報受信手段によって受信された操作情報に基づき、ユーザーが行うべき操作を音声又は画像で案内する案内手段と、を備え、
前記案内手段は、ユーザーが行うべき操作の種類、又は、ユーザーによる前記携帯端末装置の保持状態に応じて、音声による案内と画像による案内とを切り替えることを特徴とする画像処理システム。
An image processing system capable of short-range communication between an image processing device and a mobile terminal device.
The image processing device is
An error detecting means for detecting the occurrence of an error in the image processing device, and
An operation information generating means that identifies an operation to be performed by the user in order to cancel an error detected by the error detecting means and generates operation information related to the operation.
The operation information transmitting means for transmitting the operation information generated by the operation information generating means to the mobile terminal device is provided.
The mobile terminal device is
An operation information receiving means for receiving the operation information transmitted by the operation information transmitting means, and an operation information receiving means.
A guidance means for guiding an operation to be performed by the user by voice or an image based on the operation information received by the operation information receiving means is provided.
The guidance means is an image processing system characterized by switching between voice guidance and image guidance according to the type of operation to be performed by the user or the holding state of the mobile terminal device by the user.
前記案内手段は、ユーザーが行うべき操作が両手で行う必要のある操作である場合に音声による案内を行い、ユーザーが行うべき操作が片手で行うことが可能な操作である場合に画像による案内を行うことを特徴とする請求項1に記載の画像処理システム。 The guidance means provides voice guidance when the operation to be performed by the user is an operation that needs to be performed with both hands, and provides image guidance when the operation to be performed by the user is an operation that can be performed with one hand. The image processing system according to claim 1, wherein the image processing system is performed. 前記画像処理装置は、前記操作情報生成手段によって特定されるユーザーが行うべき操作が、両手で行う必要のある操作であるか、又は、片手で行うことが可能な操作であるかを判別する判別手段を更に備え、
前記案内手段は、前記判別手段による判別結果に基づいて音声による案内と画像による案内とを切り替えることを特徴とする請求項2に記載の画像処理システム。
The image processing device determines whether the operation to be performed by the user specified by the operation information generating means is an operation that needs to be performed with both hands or an operation that can be performed with one hand. With more means
The image processing system according to claim 2, wherein the guidance means switches between voice guidance and image guidance based on the discrimination result by the discrimination means.
前記携帯端末装置は、前記操作情報を解析することによってユーザーが行うべき操作が両手で行う必要のある操作であるか、又は、片手で行うことが可能な操作であるかを判別する判別手段を更に備え、
前記案内手段は、前記判別手段による判別結果に基づいて音声による案内と画像による案内とを切り替えることを特徴とする請求項2に記載の画像処理システム。
The mobile terminal device provides a discriminating means for determining whether the operation to be performed by the user is an operation that needs to be performed by both hands or an operation that can be performed by one hand by analyzing the operation information. Further prepare
The image processing system according to claim 2, wherein the guidance means switches between voice guidance and image guidance based on the discrimination result by the discrimination means.
前記操作情報生成手段は、ユーザーが行うべき操作として、複数のステップを1つずつ順に行っていく操作を特定し、
前記判別手段は、ステップごとに、両手で行う必要のある操作であるか、又は、片手で行うことが可能な操作であるかを判別し、
前記案内手段は、前記判別手段によるステップごとの判別結果に基づいて音声による案内と画像による案内とをステップごとに切り替えることを特徴とする請求項3又は4に記載の画像処理システム。
The operation information generating means identifies an operation in which a plurality of steps are sequentially performed one by one as an operation to be performed by the user.
The determination means determines, for each step, whether the operation needs to be performed with both hands or the operation can be performed with one hand.
The image processing system according to claim 3 or 4, wherein the guidance means switches between voice guidance and image guidance for each step based on the determination result for each step by the discrimination means.
前記案内手段は、次のステップの操作が音声による案内を行う操作である場合、音声による案内を行う前に、画像による案内を行うことを特徴とする請求項5に記載の画像処理システム。 The image processing system according to claim 5, wherein when the operation of the next step is an operation of performing voice guidance, the guidance means performs guidance by an image before performing voice guidance. 前記操作情報生成手段は、ユーザーの操作によってステップが1つ進行する度に、次のステップに対応する操作情報を生成し、
前記操作情報送信手段は、前記操作情報生成手段によって生成されるステップごとの操作情報を順に前記携帯端末装置へ送信し、
前記案内手段は、音声による案内を行ってから所定時間を経過したときに、前記操作情報受信手段が次のステップに対応する操作情報を受信していない場合、音声による案内を画像による案内に切り替えることをユーザーに促すことを特徴とする請求項5又は6に記載の画像処理システム。
The operation information generation means generates operation information corresponding to the next step each time one step is advanced by the user's operation.
The operation information transmitting means sequentially transmits the operation information for each step generated by the operation information generating means to the mobile terminal device.
When a predetermined time has elapsed after the voice guidance is performed, the guidance means switches the voice guidance to the image guidance when the operation information receiving means does not receive the operation information corresponding to the next step. The image processing system according to claim 5 or 6, wherein the user is prompted to do so.
前記判別手段は、ユーザーが行うべき操作がレバーを操作しながら紙を取り出す操作である場合に両手で行う必要のある操作であると判別することを特徴とする請求項3乃至7のいずれかに記載の画像処理システム。 The determination means according to any one of claims 3 to 7, wherein the determination means determines that the operation to be performed by the user is an operation to be performed with both hands when the operation to take out the paper while operating the lever. The image processing system described. 前記判別手段は、ユーザーが行うべき操作がローラーを手動回転させながら紙を取り出す操作である場合に両手で行う必要のある操作であると判別することを特徴とする請求項3乃至8のいずれかに記載の画像処理システム。 The determination means is any one of claims 3 to 8, wherein the determination means determines that the operation to be performed by the user is an operation to be performed by both hands when the operation to take out the paper while manually rotating the roller. The image processing system described in. 前記判別手段は、ユーザーが行うべき操作が所定サイズ以上の用紙を補給する操作である場合に両手で行う必要のある操作であると判別することを特徴とする請求項3乃至9のいずれかに記載の画像処理システム。 The determination means according to any one of claims 3 to 9, wherein the determination means determines that the operation to be performed by the user is an operation to be performed by both hands when the operation to replenish the paper of a predetermined size or larger is performed. The image processing system described. 前記画像処理装置は、
ユーザーによって行われる操作がエラーを解除するための正しい操作であるか否かを判別する操作判別手段、を更に備え、
前記案内手段は、音声による案内を行っている状態において前記操作判別手段によってユーザーの操作が誤った操作であると判別された場合、音声による案内を画像による案内に切り替えることをユーザーに促すことを特徴とする請求項1乃至10のいずれかに記載の画像処理システム。
The image processing device is
Further provided with an operation determination means for determining whether or not the operation performed by the user is a correct operation for canceling the error.
The guidance means prompts the user to switch the voice guidance to the image guidance when the operation determination means determines that the user's operation is an erroneous operation while the voice guidance is being performed. The image processing system according to any one of claims 1 to 10.
前記携帯端末装置は、
ユーザーの操作を検知する操作検知手段、を更に備え、
前記案内手段は、音声による案内を行っているとき、前記操作検知手段によって検知されるユーザーの操作に応じて音声による案内を画像による案内に切り替えることを特徴とする請求項1乃至11のいずれかに記載の画像処理システム。
The mobile terminal device is
Further equipped with an operation detection means for detecting the user's operation,
One of claims 1 to 11, wherein the guidance means switches the voice guidance to the image guidance according to the user's operation detected by the operation detection means when the voice guidance is performed. The image processing system described in.
前記案内手段は、音声による案内を行っているとき、前記操作検知手段によって検知されるユーザーの操作に応じて音声による案内を再生又は一時停止させることが可能であることを特徴とする請求項12に記載の画像処理システム。 12. The guidance means is characterized in that, when performing voice guidance, it is possible to play or pause the voice guidance according to the user's operation detected by the operation detection means. The image processing system described in. 画像処理装置と近距離通信を行うことが可能な携帯端末装置であって、
前記画像処理装置のエラーを解除するためにユーザーが行うべき操作に関する操作情報を、前記画像処理装置から受信する操作情報受信手段と、
前記操作情報受信手段によって受信された操作情報に基づき、ユーザーが行うべき操作を音声又は画像で案内する案内手段と、を備え、
前記案内手段は、ユーザーが行うべき操作の種類、又は、ユーザーによる前記携帯端末装置の保持状態に応じて、音声による案内と画像による案内とを切り替えることを特徴とする携帯端末装置。
A mobile terminal device capable of short-range communication with an image processing device.
An operation information receiving means for receiving operation information related to an operation to be performed by the user in order to clear an error of the image processing device from the image processing device, and an operation information receiving means.
A guidance means for guiding an operation to be performed by the user by voice or an image based on the operation information received by the operation information receiving means is provided.
The guidance means is a mobile terminal device that switches between voice guidance and image guidance according to the type of operation to be performed by the user or the holding state of the mobile terminal device by the user.
前記案内手段は、ユーザーが行うべき操作が両手で行う必要のある操作である場合に音声による案内を行い、ユーザーが行うべき操作が片手で行うことが可能な操作である場合に画像による案内を行うことを特徴とする請求項14に記載の携帯端末装置。 The guidance means provides voice guidance when the operation to be performed by the user is an operation that needs to be performed with both hands, and provides image guidance when the operation to be performed by the user is an operation that can be performed with one hand. The mobile terminal device according to claim 14, wherein the mobile terminal device is to be used. 前記案内手段は、ユーザーが行うべき操作に複数のステップが含まれる場合、ステップごとに、音声による案内と画像による案内とを切り替えることを特徴とする請求項14又は15に記載の携帯端末装置。 The mobile terminal device according to claim 14, wherein the guidance means switches between voice guidance and image guidance for each step when the operation to be performed by the user includes a plurality of steps. 前記案内手段は、次のステップの操作が音声による案内を行う操作である場合、音声による案内を行う前に、画像による案内を行うことを特徴とする請求項15に記載の携帯端末装置。 The mobile terminal device according to claim 15, wherein when the operation of the next step is an operation of performing voice guidance, the guidance means performs guidance by an image before performing voice guidance. 前記案内手段は、音声による案内を行ってから所定時間を経過したときに、前記操作情報受信手段が次のステップに対応する操作情報を受信していない場合、音声による案内を画像による案内に切り替えることをユーザーに促すことを特徴とする請求項16又は17に記載の携帯端末装置。 The guidance means switches the voice guidance to the image guidance when the operation information receiving means has not received the operation information corresponding to the next step when a predetermined time has elapsed after the voice guidance is performed. The mobile terminal device according to claim 16 or 17, wherein the user is prompted to do so. 前記案内手段は、ユーザーが行うべき操作がレバーを操作しながら紙を取り出す操作である場合に音声による案内を行うことを特徴とする請求項14乃至18のいずれかに記載の携帯端末装置。 The mobile terminal device according to any one of claims 14 to 18, wherein the guidance means provides voice guidance when the operation to be performed by the user is an operation of taking out the paper while operating the lever. 前記案内手段は、ユーザーが行うべき操作がローラーを手動回転させながら紙を取り出す操作である場合に音声による案内を行うことを特徴とする請求項14乃至19のいずれかに記載の携帯端末装置。 The mobile terminal device according to any one of claims 14 to 19, wherein the guidance means provides voice guidance when the operation to be performed by the user is an operation of taking out the paper while manually rotating the roller. 前記案内手段は、ユーザーが行うべき操作が所定サイズ以上の用紙を補給する操作である場合に音声による案内を行うことを特徴とする請求項14乃至20のいずれかに記載の携帯端末装置。 The mobile terminal device according to any one of claims 14 to 20, wherein the guidance means provides voice guidance when the operation to be performed by the user is an operation of replenishing paper of a predetermined size or larger. 前記案内手段は、音声による案内を行っているときに前記画像処理装置においてユーザーの操作が誤った操作であると判別された場合、音声による案内を画像による案内に切り替えることをユーザーに促すことを特徴とする請求項14乃至21のいずれかに記載の携帯端末装置。 The guidance means prompts the user to switch the voice guidance to the image guidance when the image processing device determines that the user's operation is an erroneous operation while performing the voice guidance. The mobile terminal device according to any one of claims 14 to 21. ユーザーの操作を検知する操作検知手段、を更に備え、
前記案内手段は、音声による案内を行っているとき、前記操作検知手段によって検知されるユーザーの操作に応じて音声による案内を画像による案内に切り替えることを特徴とする請求項14乃至22のいずれかに記載の携帯端末装置。
Further equipped with an operation detection means for detecting the user's operation,
Any of claims 14 to 22, wherein the guidance means switches the voice guidance to the image guidance according to the user's operation detected by the operation detection means when the voice guidance is performed. The mobile terminal device described in.
前記案内手段は、音声による案内を行っているとき、前記操作検知手段によって検知されるユーザーの操作に応じて音声による案内を再生又は一時停止させることが可能であることを特徴とする請求項23に記載の携帯端末装置。 23. The guide means is characterized in that, when the voice guidance is performed, the voice guidance can be played back or paused according to the user's operation detected by the operation detection means. The mobile terminal device described in. 画像処理装置と近距離通信を行うことが可能な携帯端末装置において実行されるプログラムであって、前記携帯端末装置に、
前記画像処理装置のエラーを解除するためにユーザーが行うべき操作に関する操作情報を、前記画像処理装置から受信する第1のステップと、
前記第1のステップにおいて受信された操作情報に基づき、ユーザーが行うべき操作を音声又は画像で案内する第2のステップと、を実行させ、
前記第2のステップは、ユーザーが行うべき操作の種類、又は、ユーザーによる前記携帯端末装置の保持状態に応じて、音声による案内と画像による案内とを切り替えることを特徴とするプログラム。
A program executed in a mobile terminal device capable of performing short-range communication with an image processing device.
The first step of receiving the operation information regarding the operation to be performed by the user in order to clear the error of the image processing device from the image processing device, and
Based on the operation information received in the first step, the second step of guiding the operation to be performed by the user by voice or image is executed.
The second step is a program characterized by switching between voice guidance and image guidance according to the type of operation to be performed by the user or the holding state of the mobile terminal device by the user.
前記第2のステップは、ユーザーが行うべき操作が両手で行う必要のある操作である場合に音声による案内を行い、ユーザーが行うべき操作が片手で行うことが可能な操作である場合に画像による案内を行うことを特徴とする請求項25に記載のプログラム。 The second step is to provide voice guidance when the operation to be performed by the user is an operation that needs to be performed with both hands, and is based on an image when the operation to be performed by the user is an operation that can be performed with one hand. The program according to claim 25, which comprises providing guidance.
JP2016216872A 2016-11-07 2016-11-07 Image processing systems, mobile terminal devices and programs Active JP6855757B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016216872A JP6855757B2 (en) 2016-11-07 2016-11-07 Image processing systems, mobile terminal devices and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016216872A JP6855757B2 (en) 2016-11-07 2016-11-07 Image processing systems, mobile terminal devices and programs

Publications (2)

Publication Number Publication Date
JP2018078354A JP2018078354A (en) 2018-05-17
JP6855757B2 true JP6855757B2 (en) 2021-04-07

Family

ID=62149249

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016216872A Active JP6855757B2 (en) 2016-11-07 2016-11-07 Image processing systems, mobile terminal devices and programs

Country Status (1)

Country Link
JP (1) JP6855757B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7334459B2 (en) * 2019-04-25 2023-08-29 コニカミノルタ株式会社 Information processing system and program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007086944A (en) * 2005-09-21 2007-04-05 Brother Ind Ltd Operation procedure guide system, operation procedure guide server and operation procedure guide terminal

Also Published As

Publication number Publication date
JP2018078354A (en) 2018-05-17

Similar Documents

Publication Publication Date Title
US7403721B2 (en) Image forming apparatus, MFP and method of displaying jam removal guidance
JP2015045916A (en) Authentication device and image forming apparatus
JP6223153B2 (en) Image forming apparatus, control method therefor, and computer program
JP6766479B2 (en) Image processing device, image display method and display program for error cancellation in the device
CN101025601B (en) Image forming apparatus
JP6855757B2 (en) Image processing systems, mobile terminal devices and programs
US8902447B2 (en) Image processing apparatus displaying operating procedure, control method therefor, and storage medium storing control program therefor
US20140160511A1 (en) Image forming apparatus, method of controlling the same and storage medium
JP4866297B2 (en) Image forming apparatus
JP2019184797A (en) Image forming device, notification method, and program
JP2012137525A (en) Image forming apparatus, and display device
JP6620737B2 (en) Image forming apparatus
JP2007226057A (en) Image forming apparatus
JP2018046334A (en) Guidance playback device, guidance playback method, and computer program
JP4627270B2 (en) Image forming apparatus
JP6841007B2 (en) Image processing systems, mobile terminal devices and programs
JP6292140B2 (en) Image processing system
JP6776616B2 (en) Work guidance device and program
US10944878B2 (en) Image reading apparatus and image forming apparatus for warning of risk of information leakage
JP5831852B2 (en) apparatus
JP2018120372A (en) Electronic device and image forming apparatus
JP6740824B2 (en) Guidance reproducing device, guidance reproducing method, and computer program
JP6711223B2 (en) Guidance playback device, playback time designation support method, and computer program
JP6992663B2 (en) Image forming apparatus, control method and program of image forming apparatus
JP6270892B2 (en) Image processing apparatus, control method therefor, and computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190723

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200904

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200915

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201201

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210216

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210301

R150 Certificate of patent or registration of utility model

Ref document number: 6855757

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150