JP2018078354A - Image processing system, mobile terminal device, and program - Google Patents

Image processing system, mobile terminal device, and program Download PDF

Info

Publication number
JP2018078354A
JP2018078354A JP2016216872A JP2016216872A JP2018078354A JP 2018078354 A JP2018078354 A JP 2018078354A JP 2016216872 A JP2016216872 A JP 2016216872A JP 2016216872 A JP2016216872 A JP 2016216872A JP 2018078354 A JP2018078354 A JP 2018078354A
Authority
JP
Japan
Prior art keywords
guidance
user
image
terminal device
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016216872A
Other languages
Japanese (ja)
Other versions
JP6855757B2 (en
Inventor
貴信 杉山
Takanobu Sugiyama
貴信 杉山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2016216872A priority Critical patent/JP6855757B2/en
Publication of JP2018078354A publication Critical patent/JP2018078354A/en
Application granted granted Critical
Publication of JP6855757B2 publication Critical patent/JP6855757B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Or Security For Electrophotography (AREA)
  • Facsimiles In General (AREA)
  • Telephone Function (AREA)
  • Accessory Devices And Overall Control Thereof (AREA)

Abstract

PROBLEM TO BE SOLVED: To switch between a guide by voice and a guide by image according to operation which a user should perform.SOLUTION: A mobile terminal device 3 capable of short-range communication with an image processing device 2 is configured to, upon receiving from the image processing device 2 operation information on operation which a user should perform to cancel an error of the image processing device 2, guide the operation the user should perform by voice or image on the basis of the operation information. It switches between the guide by voice and the guide by image according to a type of operation the user should perform, or a holding state of the mobile terminal device by the user.SELECTED DRAWING: Figure 4

Description

本発明は、画像処理システム、携帯端末装置及びプログラムに関し、特に画像処理システムにおいてエラーが発生した場合に携帯端末装置がユーザーに対してエラーを解除するための案内を行う技術に関する。   The present invention relates to an image processing system, a portable terminal device, and a program, and more particularly, to a technique for providing guidance for a user to cancel an error from a portable terminal device when an error occurs in the image processing system.

従来、MFP(Multifunction Peripherals)などの画像処理装置と、ユーザーが所持する携帯端末装置とが連携するシステムにおいて、画像処理装置に紙詰まりなどのエラーが発生した場合に、画像処理装置が携帯端末装置に対して音声案内と画像案内とを含む案内情報を送信し、携帯端末装置がユーザーに対してエラーを解除するための操作を音声と画像との双方で案内する技術が知られている(例えば特許文献1)。   2. Description of the Related Art Conventionally, in an image processing apparatus such as an MFP (Multifunction Peripherals) and a portable terminal device owned by a user, when an error such as a paper jam occurs in the image processing apparatus, the image processing apparatus is the portable terminal apparatus. A technique is known in which guidance information including voice guidance and image guidance is transmitted to the mobile terminal device so that an operation for canceling the error is guided to the user by both voice and image (for example, Patent Document 1).

特開2016−139887号公報Japanese Patent Laid-Open No. 2006-13987

ところで、画像処理装置で発生するエラーには様々なタイプのエラーが存在する。例えば、ユーザーが片手操作で解除することが可能なエラーや、解除するためにはユーザーが両手操作を行うことが必要となるエラーなどが存在する。エラー解除のために両手操作が必要な場合、ユーザーは携帯端末装置を持ちながら解除操作を行うことができないため、画像案内を見ながら解除操作を進めることは難しい。そのため、両手操作が必要な場合、ユーザーは、画像案内を見ることなく、音声案合だけを頼りにして解除操作を行うことになる。これに対し、片手操作でエラーを解除することが可能な場合、ユーザーは、一方の手で携帯端末装置を持ちながら他方の手で解除操作を行うことができる。この場合、ユーザーは画像案内を見れば操作箇所などを正確に把握することができるため、音声案内は特に必要なものではない。   There are various types of errors that occur in the image processing apparatus. For example, there are errors that can be canceled by one-handed operation by the user, and errors that require the user to perform two-handed operation to cancel. If a two-handed operation is required to cancel the error, the user cannot perform the canceling operation while holding the mobile terminal device, and thus it is difficult to proceed with the canceling operation while viewing the image guidance. For this reason, when a two-handed operation is necessary, the user performs the releasing operation by relying only on the voice arrangement without looking at the image guidance. On the other hand, when the error can be canceled by one-handed operation, the user can perform the canceling operation with the other hand while holding the mobile terminal device with one hand. In this case, voice guidance is not particularly necessary because the user can accurately grasp the operation location by looking at the image guidance.

しかしながら、上述した従来技術は、常に音声と画像との双方による案内を行うようにしているため、携帯端末装置は、ユーザーが画像案内を見ていないときでも画像案内のための処理を実行し、またユーザーが音声案内を必要としないときでも音声案内のための処理を実行する。それ故、上述した従来技術は、ユーザーが行うべき操作などに応じて音声案内と画像案内とを切り替えることができず、携帯端末装置の電力を無駄に消費してしまうという問題があった。   However, since the above-described conventional technology always provides guidance by both sound and image, the mobile terminal device executes processing for image guidance even when the user is not viewing image guidance, Further, even when the user does not need voice guidance, the voice guidance processing is executed. Therefore, the above-described conventional technology has a problem in that it cannot switch between voice guidance and image guidance according to an operation to be performed by the user and consumes power of the mobile terminal device wastefully.

本発明は、上記のような従来の問題点を解決するためになされたものであり、ユーザーが行うべき操作などに応じて音声による案内と画像による案内とを切り替えることにより、携帯端末装置の電力消費量を低減できるようにした画像処理システム、携帯端末装置及びプログラムを提供することを目的とするものである。   The present invention has been made to solve the above-described conventional problems, and by switching between voice guidance and image guidance according to operations to be performed by the user, the power of the mobile terminal device An object of the present invention is to provide an image processing system, a portable terminal device, and a program that can reduce consumption.

上記目的を達成するため、請求項1に係る発明は、画像処理装置と携帯端末装置とが近距離通信を行うことが可能な画像処理システムであって、前記画像処理装置は、前記画像処理装置においてエラーが発生したことを検知するエラー検知手段と、前記異常検知手段によって検知されるエラーを解除するためにユーザーが行うべき操作を特定し、該操作に関する操作情報を生成する操作情報生成手段と、前記操作情報生成手段によって生成される操作情報を前記携帯端末装置へ送信する操作情報送信手段と、を備え、前記携帯端末装置は、前記操作情報送信手段によって送信される操作情報を受信する操作情報受信手段と、前記操作情報受信手段によって受信された操作情報に基づき、ユーザーが行うべき操作を音声又は画像で案内する案内手段と、を備え、前記案内手段は、ユーザーが行うべき操作の種類、又は、ユーザーによる前記携帯端末装置の保持状態に応じて、音声による案内と画像による案内とを切り替えることを特徴とする構成である。   In order to achieve the above object, an invention according to claim 1 is an image processing system in which an image processing device and a mobile terminal device can perform short-range communication, and the image processing device includes the image processing device. An error detection means for detecting that an error has occurred, an operation information generation means for specifying an operation to be performed by the user in order to cancel the error detected by the abnormality detection means, and generating operation information relating to the operation; Operation information transmission means for transmitting operation information generated by the operation information generation means to the portable terminal device, wherein the portable terminal device receives operation information transmitted by the operation information transmission means Information receiving means and guidance that guides an operation to be performed by the user by voice or image based on the operation information received by the operation information receiving means The guidance means switches between voice guidance and image guidance according to the type of operation to be performed by the user or the holding state of the mobile terminal device by the user. It is.

請求項2に係る発明は、請求項1に記載の画像処理システムにおいて、前記案内手段は、ユーザーが行うべき操作が両手で行う必要のある操作である場合に音声による案内を行い、ユーザーが行うべき操作が片手で行うことが可能な操作である場合に画像による案内を行うことを特徴とする構成である。   According to a second aspect of the present invention, in the image processing system according to the first aspect, the guide means performs a voice guidance when an operation to be performed by the user is an operation that needs to be performed with both hands, and is performed by the user. When the power operation is an operation that can be performed with one hand, the image guidance is performed.

請求項3に係る発明は、請求項2に記載の画像処理システムにおいて、前記画像処理装置は、前記操作情報生成手段によって特定されるユーザーが行うべき操作が、両手で行う必要のある操作であるか、又は、片手で行うことが可能な操作であるかを判別する判別手段を更に備え、前記案内手段は、前記判別手段による判別結果に基づいて音声による案内と画像による案内とを切り替えることを特徴とする構成である。   According to a third aspect of the present invention, in the image processing system according to the second aspect, in the image processing apparatus, the operation to be performed by the user specified by the operation information generating unit is an operation that needs to be performed with both hands. Or a discriminating unit that discriminates whether the operation can be performed with one hand, and the guidance unit switches between voice guidance and image guidance based on a discrimination result by the discrimination unit. This is a characteristic configuration.

請求項4に係る発明は、請求項2に記載の画像処理システムにおいて、前記携帯端末装置は、前記操作情報を解析することによってユーザーが行うべき操作が両手で行う必要のある操作であるか、又は、片手で行うことが可能な操作であるかを判別する判別手段を更に備え、前記案内手段は、前記判別手段による判別結果に基づいて音声による案内と画像による案内とを切り替えることを特徴とする構成である。   The invention according to claim 4 is the image processing system according to claim 2, wherein the portable terminal device is an operation that a user should perform with both hands by analyzing the operation information, Alternatively, the information processing apparatus further includes a determination unit that determines whether the operation can be performed with one hand, and the guide unit switches between voice guidance and image guidance based on a determination result by the determination unit. It is the structure to do.

請求項5に係る発明は、請求項3又は4に記載の画像処理システムにおいて、前記操作情報生成手段は、ユーザーが行うべき操作として、複数のステップを1つずつ順に行っていく操作を特定し、前記判別手段は、ステップごとに、両手で行う必要のある操作であるか、又は、片手で行うことが可能な操作であるかを判別し、前記案内手段は、前記判別手段によるステップごとの判別結果に基づいて音声による案内と画像による案内とをステップごとに切り替えることを特徴とする構成である。   According to a fifth aspect of the present invention, in the image processing system according to the third or fourth aspect, the operation information generation unit specifies an operation for sequentially performing a plurality of steps one by one as an operation to be performed by the user. The discriminating means discriminates whether it is an operation that needs to be performed with both hands or an operation that can be performed with one hand for each step. According to the discrimination result, the guidance by voice and the guidance by image are switched at each step.

請求項6に係る発明は、請求項5に記載の画像処理システムにおいて、前記案内手段は、次のステップの操作が音声による案内を行う操作である場合、音声による案内を行う前に、画像による案内を行うことを特徴とする構成である。   According to a sixth aspect of the present invention, in the image processing system according to the fifth aspect, when the next step operation is a voice guidance operation, the guidance means uses an image before voice guidance. It is the structure characterized by performing guidance.

請求項7に係る発明は、請求項5又は6に記載の画像処理システムにおいて、前記操作情報生成手段は、ユーザーの操作によってステップが1つ進行する度に、次のステップに対応する操作情報を生成し、前記操作情報送信手段は、前記操作情報生成手段によって生成されるステップごとの操作情報を順に前記携帯端末装置へ送信し、前記案内手段は、音声による案内を行ってから所定時間を経過したときに、前記操作情報受信手段が次のステップに対応する操作情報を受信していない場合、音声による案内を画像による案内に切り替えることをユーザーに促すことを特徴とする構成である。   According to a seventh aspect of the present invention, in the image processing system according to the fifth or sixth aspect, the operation information generating unit obtains operation information corresponding to the next step every time one step is advanced by a user operation. The operation information transmitting unit sequentially transmits the operation information for each step generated by the operation information generating unit to the portable terminal device, and the guide unit passes a predetermined time after performing the guidance by voice. When the operation information receiving means does not receive operation information corresponding to the next step, the user is prompted to switch from voice guidance to image guidance.

請求項8に係る発明は、請求項3乃至7のいずれかに記載の画像処理システムにおいて、前記判別手段は、ユーザーが行うべき操作がレバーを操作しながら紙を取り出す操作である場合に両手で行う必要のある操作であると判別することを特徴とする構成である。   According to an eighth aspect of the present invention, in the image processing system according to any one of the third to seventh aspects, the determination means uses both hands when the operation to be performed by the user is an operation of taking out the paper while operating the lever. In this configuration, it is determined that the operation needs to be performed.

請求項9に係る発明は、請求項3乃至8のいずれかに記載の画像処理システムにおいて、前記判別手段は、ユーザーが行うべき操作がローラーを手動回転させながら紙を取り出す操作である場合に両手で行う必要のある操作であると判別することを特徴とする構成である。   According to a ninth aspect of the present invention, in the image processing system according to any one of the third to eighth aspects, when the operation to be performed by the user is an operation of taking out paper while manually rotating a roller, both hands In this configuration, it is determined that the operation needs to be performed.

請求項10に係る発明は、請求項3乃至9のいずれかに記載の画像処理システムにおいて、前記判別手段は、ユーザーが行うべき操作が所定サイズ以上の用紙を補給する操作である場合に両手で行う必要のある操作であると判別することを特徴とする構成である。   According to a tenth aspect of the present invention, in the image processing system according to any one of the third to ninth aspects, when the operation to be performed by the user is an operation of supplying paper of a predetermined size or more, both hands. In this configuration, it is determined that the operation needs to be performed.

請求項11に係る発明は、請求項1乃至10のいずれかに記載の画像処理システムにおいて、前記携帯端末装置は、画像を撮影する撮像手段と、前記撮像手段によって撮影された画像からユーザーの顔画像を認識する画像認識手段と、を更に備え、前記案内手段は、前記画像認識手段によってユーザーの顔画像が認識されている場合に画像による案内を行い、前記画像認識手段によってユーザーの顔画像が認識されていない場合に音声による案内を行うことを特徴とする構成である。   According to an eleventh aspect of the present invention, in the image processing system according to any one of the first to tenth aspects, the mobile terminal device includes an imaging unit that captures an image, and a user's face from the image captured by the imaging unit. Image recognizing means for recognizing an image, and the guiding means performs guidance based on an image when the user's face image is recognized by the image recognizing means, and the user's face image is detected by the image recognizing means. In this configuration, voice guidance is performed when it is not recognized.

請求項12に係る発明は、請求項1乃至11のいずれかに記載の画像処理システムにおいて、前記携帯端末装置は、前記携帯端末装置に作用する加速度を検知する加速度センサー、を更に備え、前記案内手段は、前記加速度センサーによって加速度が検知されている場合に画像による案内を行い、前記加速度センサーによって加速度が検知されていない場合に音声による案内を行うことを特徴とする構成である。   The invention according to claim 12 is the image processing system according to any one of claims 1 to 11, wherein the mobile terminal device further includes an acceleration sensor that detects acceleration acting on the mobile terminal device, and the guidance The means is configured to perform guidance by image when acceleration is detected by the acceleration sensor, and to perform guidance by voice when acceleration is not detected by the acceleration sensor.

請求項13に係る発明は、請求項1乃至12のいずれかに記載の画像処理システムにおいて、前記画像処理装置は、ユーザーによって行われる操作がエラーを解除するための正しい操作であるか否かを判別する操作判別手段、を更に備え、前記案内手段は、音声による案内を行っている状態において前記操作判別手段によってユーザーの操作が誤った操作であると判別された場合、音声による案内を画像による案内に切り替えることをユーザーに促すことを特徴とする構成である。   According to a thirteenth aspect of the present invention, in the image processing system according to any one of the first to twelfth aspects, the image processing apparatus determines whether the operation performed by the user is a correct operation for canceling the error. An operation discriminating unit for discriminating, and when the guidance discriminating unit determines that the user's operation is an erroneous operation in the state of performing the voice guidance, the voice guidance is based on an image. In this configuration, the user is prompted to switch to guidance.

請求項14に係る発明は、請求項1乃至13のいずれかに記載の画像処理システムにおいて、前記携帯端末装置は、ユーザーの操作を検知する操作検知手段、を更に備え、前記案内手段は、音声による案内を行っているとき、前記操作検知手段によって検知されるユーザーの操作に応じて音声による案内を画像による案内に切り替えることを特徴とする構成である。   According to a fourteenth aspect of the present invention, in the image processing system according to any one of the first to thirteenth aspects, the portable terminal device further includes an operation detecting unit that detects a user operation, and the guide unit is a voice. When the guidance is performed, the voice guidance is switched to the image guidance according to the user's operation detected by the operation detection means.

請求項15に係る発明は、請求項14に記載の画像処理システムにおいて、前記案内手段は、音声による案内を行っているとき、前記操作検知手段によって検知されるユーザーの操作に応じて音声による案内を再生又は一時停止させることが可能であることを特徴とする構成である。   According to a fifteenth aspect of the present invention, in the image processing system according to the fourteenth aspect, when the guidance unit performs guidance by voice, guidance by voice according to a user operation detected by the manipulation detection unit. Can be reproduced or paused.

請求項16に係る発明は、画像処理装置と近距離通信を行うことが可能な携帯端末装置であって、前記画像処理装置のエラーを解除するためにユーザーが行うべき操作に関する操作情報を、前記画像処理装置から受信する操作情報受信手段と、前記操作情報受信手段によって受信された操作情報に基づき、ユーザーが行うべき操作を音声又は画像で案内する案内手段と、を備え、前記案内手段は、ユーザーが行うべき操作の種類、又は、ユーザーによる前記携帯端末装置の保持状態に応じて、音声による案内と画像による案内とを切り替えることを特徴とする構成である。   The invention according to claim 16 is a portable terminal device capable of short-range communication with an image processing device, wherein operation information related to an operation to be performed by a user in order to cancel an error of the image processing device, Operation information receiving means received from the image processing device, and guidance means for guiding the operation to be performed by the user by voice or image based on the operation information received by the operation information receiving means, the guidance means, According to the type of operation to be performed by the user or the holding state of the portable terminal device by the user, the voice guidance and the image guidance are switched.

請求項17に係る発明は、請求項16に記載の携帯端末装置において、前記案内手段は、ユーザーが行うべき操作が両手で行う必要のある操作である場合に音声による案内を行い、ユーザーが行うべき操作が片手で行うことが可能な操作である場合に画像による案内を行うことを特徴とする構成である。   The invention according to claim 17 is the portable terminal device according to claim 16, wherein the guide means performs voice guidance when an operation to be performed by the user is an operation that needs to be performed by both hands, and is performed by the user. When the power operation is an operation that can be performed with one hand, the image guidance is performed.

請求項18に係る発明は、請求項16又は17に記載の携帯端末装置において、前記案内手段は、ユーザーが行うべき操作に複数のステップが含まれる場合、ステップごとに、音声による案内と画像による案内とを切り替えることを特徴とする構成である。   According to an eighteenth aspect of the present invention, in the portable terminal device according to the sixteenth or seventeenth aspect, when the operation to be performed by the user includes a plurality of steps, the guidance means uses voice guidance and an image for each step. It is the structure characterized by switching between guidance.

請求項19に係る発明は、請求項18に記載の携帯端末装置において、前記案内手段は、次のステップの操作が音声による案内を行う操作である場合、音声による案内を行う前に、画像による案内を行うことを特徴とする構成である。   According to a nineteenth aspect of the present invention, in the portable terminal device according to the eighteenth aspect, when the next step operation is a voice guidance operation, the guidance means uses an image before voice guidance. It is the structure characterized by performing guidance.

請求項20に係る発明は、請求項18又は19に記載の携帯端末装置において、前記案内手段は、音声による案内を行ってから所定時間を経過したときに、前記操作情報受信手段が次のステップに対応する操作情報を受信していない場合、音声による案内を画像による案内に切り替えることをユーザーに促すことを特徴とする構成である。   According to a twentieth aspect of the present invention, in the portable terminal device according to the twelfth or nineteenth aspect, when the predetermined time has elapsed after the guidance unit performs voice guidance, the operation information reception unit performs the next step. When the operation information corresponding to is not received, the user is prompted to switch from voice guidance to image guidance.

請求項21に係る発明は、請求項16乃至20のいずれかに記載の携帯端末装置において、前記案内手段は、ユーザーが行うべき操作がレバーを操作しながら紙を取り出す操作である場合に音声による案内を行うことを特徴とする構成である。   According to a twenty-first aspect of the present invention, in the portable terminal device according to any of the sixteenth to twentieth aspects, the guide means uses voice when an operation to be performed by the user is an operation of taking out paper while operating a lever. It is the structure characterized by performing guidance.

請求項22に係る発明は、請求項16乃至21のいずれかに記載の携帯端末装置において、前記案内手段は、ユーザーが行うべき操作がローラーを手動回転させながら紙を取り出す操作である場合に音声による案内を行うことを特徴とする構成である。   According to a twenty-second aspect of the present invention, in the portable terminal device according to any of the sixteenth to twenty-first aspects, the guide means performs a voice operation when an operation to be performed by the user is an operation of taking out paper while manually rotating a roller. It is the structure characterized by performing guidance by.

請求項23に係る発明は、請求項16乃至22のいずれかに記載の携帯端末装置において、前記案内手段は、ユーザーが行うべき操作が所定サイズ以上の用紙を補給する操作である場合に音声による案内を行うことを特徴とする構成である。   According to a twenty-third aspect of the present invention, in the portable terminal device according to any one of the sixteenth to twenty-second aspects, the guide means uses voice when the operation to be performed by the user is an operation of supplying paper of a predetermined size or more. It is the structure characterized by performing guidance.

請求項24に係る発明は、請求項16乃至23のいずれかに記載の携帯端末装置において、画像を撮影する撮像手段と、前記撮像手段によって撮影された画像からユーザーの顔画像を認識する画像認識手段と、を更に備え、前記案内手段は、前記画像認識手段によってユーザーの顔画像が認識されている場合に画像による案内を行い、前記画像認識手段によってユーザーの顔画像が認識されていない場合に音声による案内を行うことを特徴とする構成である。   According to a twenty-fourth aspect of the present invention, in the mobile terminal device according to any one of the sixteenth to twenty-third aspects, an image recognition unit that captures an image and an image recognition that recognizes a user's face image from the image captured by the imaging unit. And when the user's face image is recognized by the image recognizing means, the guide means performs guidance by an image, and when the user's face image is not recognized by the image recognizing means. This configuration is characterized by performing guidance by voice.

請求項25に係る発明は、請求項16乃至24のいずれかに記載の携帯端末装置において、前記携帯端末装置に作用する加速度を検知する加速度センサー、を更に備え、前記案内手段は、前記加速度センサーによって加速度が検知されている場合に画像による案内を行い、前記加速度センサーによって加速度が検知されていない場合に音声による案内を行うことを特徴とする構成である。   The invention according to claim 25 is the portable terminal device according to any one of claims 16 to 24, further comprising an acceleration sensor for detecting an acceleration acting on the portable terminal device, wherein the guiding means is the acceleration sensor. When the acceleration is detected by, guidance by image is performed, and when acceleration is not detected by the acceleration sensor, guidance by voice is performed.

請求項26に係る発明は、請求項16乃至25のいずれかに記載の携帯端末装置において、前記案内手段は、音声による案内を行っているときに前記画像処理装置においてユーザーの操作が誤った操作であると判別された場合、音声による案内を画像による案内に切り替えることをユーザーに促すことを特徴とする構成である。   According to a twenty-sixth aspect of the present invention, in the portable terminal device according to any one of the sixteenth to twenty-fifth aspects, an operation in which a user's operation is incorrect in the image processing device when the guidance means performs a voice guidance. In the case where it is determined that it is, the user is prompted to switch from voice guidance to image guidance.

請求項27に係る発明は、請求項16乃至26のいずれかに記載の携帯端末装置において、ユーザーの操作を検知する操作検知手段、を更に備え、前記案内手段は、音声による案内を行っているとき、前記操作検知手段によって検知されるユーザーの操作に応じて音声による案内を画像による案内に切り替えることを特徴とする構成である。   The invention according to claim 27 is the portable terminal device according to any one of claims 16 to 26, further comprising operation detecting means for detecting a user operation, wherein the guide means performs voice guidance. The voice guidance is switched to the image guidance according to a user operation detected by the operation detection means.

請求項28に係る発明は、請求項27に記載の携帯端末装置において、前記案内手段は、音声による案内を行っているとき、前記操作検知手段によって検知されるユーザーの操作に応じて音声による案内を再生又は一時停止させることが可能であることを特徴とする構成である。   According to a twenty-eighth aspect of the present invention, in the portable terminal device according to the twenty-seventh aspect, when the guidance unit performs guidance by voice, guidance by voice according to a user operation detected by the manipulation detection unit. Can be reproduced or paused.

請求項29に係る発明は、画像処理装置と近距離通信を行うことが可能な携帯端末装置において実行されるプログラムであって、前記携帯端末装置に、前記画像処理装置のエラーを解除するためにユーザーが行うべき操作に関する操作情報を、前記画像処理装置から受信する第1のステップと、前記第1のステップにおいて受信された操作情報に基づき、ユーザーが行うべき操作を音声又は画像で案内する第2のステップと、を実行させ、前記第2のステップは、ユーザーが行うべき操作の種類、又は、ユーザーによる前記携帯端末装置の保持状態に応じて、音声による案内と画像による案内とを切り替えることを特徴とする構成である。   The invention according to claim 29 is a program executed in a portable terminal device capable of performing short-range communication with an image processing device, in order to cancel an error of the image processing device in the portable terminal device. A first step of receiving operation information relating to an operation to be performed by the user from the image processing apparatus, and a first step of guiding the operation to be performed by the user by voice or image based on the operation information received in the first step. And the second step switches between voice guidance and image guidance according to the type of operation to be performed by the user or the holding state of the mobile terminal device by the user. It is the structure characterized by these.

請求項30に係る発明は、請求項29に記載のプログラムにおいて、前記第2のステップは、ユーザーが行うべき操作が両手で行う必要のある操作である場合に音声による案内を行い、ユーザーが行うべき操作が片手で行うことが可能な操作である場合に画像による案内を行うことを特徴とする構成である。   The invention according to claim 30 is the program according to claim 29, wherein the second step is performed by the user by performing voice guidance when an operation to be performed by the user is an operation that needs to be performed with both hands. When the power operation is an operation that can be performed with one hand, the image guidance is performed.

請求項31に係る発明は、請求項29又は30に記載のプログラムにおいて、前記携帯端末装置は、画像を撮影する撮像手段を備え、前記プログラムは、前記携帯端末装置に、前記撮像手段によって撮影された画像からユーザーの顔画像を認識する第3のステップ、を更に実行させ、前記第2のステップは、前記第3のステップにおいてユーザーの顔画像が認識されている場合に画像による案内を行い、前記第3のステップにおいてユーザーの顔画像が認識されていない場合に音声による案内を行うことを特徴とする構成である。   The invention according to claim 31 is the program according to claim 29 or 30, wherein the mobile terminal device includes an image capturing unit that captures an image, and the program is captured by the image capturing unit on the mobile terminal device. A third step of recognizing the user's face image from the captured image, wherein the second step provides guidance by image when the user's face image is recognized in the third step, In the third step, voice guidance is performed when a user's face image is not recognized.

請求項32に係る発明は、請求項29乃至31のいずれかに記載のプログラムにおいて、前記携帯端末装置は、前記携帯端末装置に作用する加速度を検知する加速度センサーを備え、前記第2のステップは、前記加速度センサーによって加速度が検知されている場合に画像による案内を行い、前記加速度センサーによって加速度が検知されていない場合に音声による案内を行うことを特徴とする構成である。   The invention according to Claim 32 is the program according to any one of Claims 29 to 31, wherein the mobile terminal device includes an acceleration sensor that detects acceleration acting on the mobile terminal device, and the second step includes The image guidance is performed when acceleration is detected by the acceleration sensor, and the voice guidance is performed when acceleration is not detected by the acceleration sensor.

本発明によれば、ユーザーが行うべき操作などに応じて音声による案内と画像による案内とを切り替えるため、携帯端末装置の電力消費量を低減させることができるようになる。   According to the present invention, since the voice guidance and the image guidance are switched according to the operation to be performed by the user, the power consumption of the portable terminal device can be reduced.

画像処理システムの構成例を示す図である。It is a figure which shows the structural example of an image processing system. 画像処理装置のハードウェア構成の一例を示すブロック図である。It is a block diagram which shows an example of the hardware constitutions of an image processing apparatus. 携帯端末装置のハードウェア構成の一例を示すブロック図である。It is a block diagram which shows an example of the hardware constitutions of a portable terminal device. 画像処理装置及び携帯端末装置の機能構成を示すブロック図である。It is a block diagram which shows the function structure of an image processing apparatus and a portable terminal device. エラー判別情報の一例を示す図である。It is a figure which shows an example of error discrimination information. 操作案内登録情報の一例を示す図である。It is a figure which shows an example of operation guidance registration information. 操作案内登録情報に登録される画像データの一例を示す図である。It is a figure which shows an example of the image data registered into operation guidance registration information. 操作案内登録情報に登録される音声データの一例を示す図である。It is a figure which shows an example of the audio | voice data registered into operation guidance registration information. 画像処理装置でエラーが発生した場合に画像処理装置及び携帯端末装置が互いに連携しながら行うプロセスの流れを示す図である。It is a figure which shows the flow of the process which an image processing apparatus and a portable terminal device perform in cooperation with each other when an error occurs in the image processing apparatus. 画像処理装置において行われる処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the process sequence performed in an image processing apparatus. 携帯端末装置において行われる主たる処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the main process procedures performed in a portable terminal device. 操作案内処理の詳細な処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the detailed process sequence of an operation guidance process.

以下、本発明に関する好ましい実施形態について図面を参照しつつ詳細に説明する。尚、以下に説明する実施形態において互いに共通する部材には同一符号を付しており、それらについての重複する説明は省略する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings. In the embodiments described below, members that are common to each other are denoted by the same reference numerals, and redundant descriptions thereof are omitted.

図1は、本発明の一実施形態における画像処理システム1の構成例を示す図である。この画像処理システム1は、MFPなどで構成される画像処理装置2と、ユーザーが所持するスマートフォンやタブレット端末、パーソナルコンピュータなどで構成される携帯端末装置3とを備えている。そして画像処理装置2と携帯端末装置3は、互いに無線による近距離通信を行うことができるように構成される。   FIG. 1 is a diagram illustrating a configuration example of an image processing system 1 according to an embodiment of the present invention. The image processing system 1 includes an image processing apparatus 2 configured by an MFP or the like, and a mobile terminal apparatus 3 configured by a user, such as a smartphone, a tablet terminal, or a personal computer. The image processing device 2 and the mobile terminal device 3 are configured to be able to perform short-range communication with each other wirelessly.

画像処理装置2は、スキャン機能やプリント機能、コピー機能などの複数の機能を備えており、ユーザーの指示に基づいてスキャンジョブやプリントジョブ、コピージョブなどを実行することができる。このような画像処理装置2は、内部において紙詰まりなどのエラーが発生することがある。画像処理装置2においてエラーが発生すると、画像処理装置2は、ユーザーが所持する携帯端末装置3と近距離通信を行うことにより、携帯端末装置3にエラー解除のための操作案内を行わせる。   The image processing apparatus 2 includes a plurality of functions such as a scan function, a print function, and a copy function, and can execute a scan job, a print job, a copy job, and the like based on a user instruction. Such an image processing apparatus 2 may generate an error such as a paper jam inside. When an error occurs in the image processing device 2, the image processing device 2 causes the mobile terminal device 3 to perform operation guidance for error cancellation by performing short-range communication with the mobile terminal device 3 possessed by the user.

携帯端末装置3には、画像処理装置2と連携するためのアプリケーションが予めインストールされている。携帯端末装置3は、そのアプリケーションを起動させることにより、画像処理装置2と近距離通信を行うことができる。そして画像処理装置2においてエラーが発生した状態でアプリケーションが起動することに伴い、携帯端末装置3は、画像処理装置2との近距離通信を開始し、画像処理装置2からの指示に基づいてエラーを解除するための操作をユーザーに案内する。   An application for linking with the image processing apparatus 2 is installed in the mobile terminal device 3 in advance. The mobile terminal device 3 can perform near field communication with the image processing device 2 by activating the application. As the application is started in the state where an error has occurred in the image processing device 2, the mobile terminal device 3 starts near field communication with the image processing device 2, and an error is generated based on an instruction from the image processing device 2. The user is guided to the operation for canceling.

図2は、画像処理装置2のハードウェア構成の一例を示すブロック図である。画像処理装置2は、制御部10と、操作パネル11と、ネットワークインタフェース12と、記憶部13と、近距離通信インタフェース16と、スキャナ部20と、プリンタ部30とを備えている。   FIG. 2 is a block diagram illustrating an example of a hardware configuration of the image processing apparatus 2. The image processing apparatus 2 includes a control unit 10, an operation panel 11, a network interface 12, a storage unit 13, a near field communication interface 16, a scanner unit 20, and a printer unit 30.

制御部10は、CPU10aとメモリ10bとを備え、各部の動作を制御する。CPU10aは、画像処理装置2に電源が投入されると、記憶部13からプログラム14を読み出して実行することにより、制御部10を様々な処理部として機能させる。メモリ10bは、CPU10aがプログラム14に基づく処理を実行する際に一時的なデータなどを記憶するためのものである。   The control unit 10 includes a CPU 10a and a memory 10b, and controls the operation of each unit. When the image processing apparatus 2 is turned on, the CPU 10a reads the program 14 from the storage unit 13 and executes it, thereby causing the control unit 10 to function as various processing units. The memory 10b is for storing temporary data or the like when the CPU 10a executes processing based on the program 14.

操作パネル11は、ユーザーが画像処理装置2を操作する際のユーザーインタフェースとなるものである。操作パネル11は、ユーザーに対して各種情報を表示する表示部11aと、ユーザーによる操作を受け付ける操作部11bとを備えている。表示部11aは、例えばカラー液晶ディスプレイで構成される。操作部11bは、表示部11aの画面上に配置されるタッチパネルキーや表示部11aの画面周囲に配置される押しボタンキーなどで構成される。このような操作パネル11は、画像処理装置2の装置本体正面側の所定位置に固定されている。そのため、ユーザーは、画像処理装置2の正面側に立つことにより、表示部11aで表示される画像を視認し易く、また操作部11bに対する操作を行い易くなる。   The operation panel 11 serves as a user interface when the user operates the image processing apparatus 2. The operation panel 11 includes a display unit 11a that displays various types of information to the user, and an operation unit 11b that receives an operation by the user. The display unit 11a is configured by a color liquid crystal display, for example. The operation unit 11b includes touch panel keys arranged on the screen of the display unit 11a and push button keys arranged around the screen of the display unit 11a. Such an operation panel 11 is fixed at a predetermined position on the front side of the main body of the image processing apparatus 2. Therefore, by standing on the front side of the image processing apparatus 2, the user can easily see the image displayed on the display unit 11a and can easily operate the operation unit 11b.

ネットワークインタフェース12は、画像処理装置2がLAN(Local Area Network)などのネットワークを介してパーソナルコンピュータやその他のデバイスと通信を行うためのものである。   The network interface 12 is used for the image processing apparatus 2 to communicate with a personal computer and other devices via a network such as a LAN (Local Area Network).

記憶部13は、例えばハードディスクドライブ(HDD)やソリッドステートドライブ(SSD)などで構成される不揮発性の記憶手段である。記憶部13には、制御部10のCPU10aによって実行されるプログラム14が予め記憶されている。また記憶部13には、エラー判別情報15が予め記憶されている。このエラー判別情報15は、画像処理装置2において紙詰まりなどのエラーが発生した場合に、そのエラーの種類に応じて、エラーを解除するためにユーザーが行うべき解除操作を特定するために参照される情報である。   The storage unit 13 is a non-volatile storage unit configured by, for example, a hard disk drive (HDD) or a solid state drive (SSD). In the storage unit 13, a program 14 that is executed by the CPU 10 a of the control unit 10 is stored in advance. In addition, error determination information 15 is stored in the storage unit 13 in advance. This error determination information 15 is referred to in order to specify a release operation to be performed by the user in order to release the error according to the type of error when an error such as a paper jam occurs in the image processing apparatus 2. Information.

近距離通信インタフェース16は、ユーザーが所持する携帯端末装置3と近距離通信を行うためのインタフェースである。例えば近距離通信インタフェース16は、NFC(Near Field Communication)やBluetooth(登録商標)などの規格に基づく無線通信を行うインタフェースである。   The near field communication interface 16 is an interface for performing near field communication with the mobile terminal device 3 possessed by the user. For example, the short-range communication interface 16 is an interface that performs wireless communication based on standards such as NFC (Near Field Communication) and Bluetooth (registered trademark).

スキャナ部20は、ユーザーによってセットされる原稿を読み取って画像データを生成する。このスキャナ部20は、原稿搬送部21と画像読取部24とを備えている。原稿搬送部21は、ユーザーによってセットされる原稿を所定の搬送路に沿って1枚ずつ自動搬送するものである。画像読取部24は、原稿搬送部21によって搬送される原稿が所定の読み取り位置を通過する際に、その原稿の表面にある画像を光学的に読み取るものである。   The scanner unit 20 reads a document set by a user and generates image data. The scanner unit 20 includes a document conveying unit 21 and an image reading unit 24. The document transport unit 21 automatically transports documents set by the user one by one along a predetermined transport path. The image reading unit 24 optically reads an image on the surface of the original when the original conveyed by the original conveying unit 21 passes a predetermined reading position.

このようなスキャナ部20では、原稿搬送部21が原稿の自動搬送を行っているときに、搬送路において紙詰まりが発生する可能性がある。そのため原稿搬送部21は、そのような紙詰まりを検知するための紙詰まりセンサー22を備えている。また原稿搬送部21は、そのような紙詰まりが発生した場合に搬送路を開放するために開閉可能なカバー(図示省略)を備えており、そのカバーの開閉状態を検知するカバー開閉センサー23を備えている。そして紙詰まりセンサー22及びカバー開閉センサー23による検知結果は、制御部10へ出力される。   In such a scanner unit 20, there is a possibility that a paper jam occurs in the conveyance path when the document conveyance unit 21 performs automatic document conveyance. Therefore, the document conveying unit 21 includes a paper jam sensor 22 for detecting such a paper jam. In addition, the document transport unit 21 includes a cover (not shown) that can be opened and closed to open the transport path when such a paper jam occurs, and includes a cover open / close sensor 23 that detects the open / closed state of the cover. I have. The detection results of the paper jam sensor 22 and the cover opening / closing sensor 23 are output to the control unit 10.

プリンタ部30は、制御部10によって指定された画像データに基づいて印刷用紙に画像形成を行うことにより、印刷出力を行う。このプリンタ部30は、給紙部31と、用紙搬送部34と、画像形成部37とを備えている。   The printer unit 30 performs print output by forming an image on a print sheet based on the image data designated by the control unit 10. The printer unit 30 includes a paper feed unit 31, a paper transport unit 34, and an image forming unit 37.

給紙部31は、画像処理装置2に設けられている印刷用紙をストックしておくための少なくとも1つのトレー(図示省略)から用紙を1枚ずつ取り出して給紙するものである。この給紙部31には、トレーにおける用紙エンプティを検知するための用紙エンプティセンサー32が設けられている。また給紙部31には、トレーの開閉状態を検知するトレー開閉センサー33が設けられている。そして用紙エンプティセンサー32及びトレー開閉センサー33による検知結果は、制御部10へ出力される。尚、画像処理装置2に複数のトレーが設けられる場合、用紙エンプティセンサー32及びトレー開閉センサー33は、トレーごとに設けられる。   The paper feed unit 31 takes out and feeds sheets one by one from at least one tray (not shown) for stocking print sheets provided in the image processing apparatus 2. The paper feed unit 31 is provided with a paper empty sensor 32 for detecting paper empty in the tray. The paper feed unit 31 is provided with a tray open / close sensor 33 that detects the open / close state of the tray. The detection results by the paper empty sensor 32 and the tray opening / closing sensor 33 are output to the control unit 10. When the image processing apparatus 2 is provided with a plurality of trays, the paper empty sensor 32 and the tray opening / closing sensor 33 are provided for each tray.

用紙搬送部34は、給紙部31によって給紙される用紙を、所定の搬送路に沿って搬送するものである。用紙搬送部34が用紙の自動搬送を行っているときには、搬送路において紙詰まりが発生する可能性がある。そのため用紙搬送部34は、そのような紙詰まりを検知するための紙詰まりセンサー35を備えている。また用紙搬送部34は、そのような紙詰まりが発生した場合に搬送路を開放するために開閉可能な扉(図示省略)を備えており、その扉の開閉状態を検知する扉開閉センサー36を備えている。そして紙詰まりセンサー35及び扉開閉センサー36による検知結果は、制御部10へ出力される。尚、用紙搬送部34には、複数の紙詰まりセンサー35が設けられていても良いし、また複数の扉開閉センサー36が設けられていても良い。   The paper transport unit 34 transports the paper fed by the paper feed unit 31 along a predetermined transport path. When the paper transport unit 34 is automatically transporting paper, a paper jam may occur in the transport path. Therefore, the paper transport unit 34 includes a paper jam sensor 35 for detecting such a paper jam. The paper transport unit 34 includes a door (not shown) that can be opened and closed to open the transport path when such a paper jam occurs, and a door open / close sensor 36 that detects the open / closed state of the door. I have. The detection results of the paper jam sensor 35 and the door opening / closing sensor 36 are output to the control unit 10. Note that the paper transport unit 34 may be provided with a plurality of paper jam sensors 35 or a plurality of door opening / closing sensors 36.

画像形成部37は、用紙搬送部34によって搬送される用紙が所定位置を通過する際に、用紙の表面にトナー像を転写し、更にトナー像を転写した用紙が別の所定位置を通過する際にトナー像を用紙に定着させることにより、用紙に対して画像形成を行うものである。この画像形成部37は、トナー残量センサー38を備えている。また画像形成部37は、トナーを交換する際に開放するための開閉可能な扉(図示省略)を備えており、その扉の開閉状態を検知する扉開閉センサー39を備えている。そしてトナー残量センサー38及び扉開閉センサー39の検知結果は、制御部10へ出力される。   The image forming unit 37 transfers the toner image to the surface of the sheet when the sheet conveyed by the sheet conveying unit 34 passes a predetermined position, and further, the sheet onto which the toner image is transferred passes another predetermined position. The toner image is fixed on the paper to form an image on the paper. The image forming unit 37 includes a toner remaining amount sensor 38. In addition, the image forming unit 37 includes an openable / closable door (not shown) that is opened when the toner is replaced, and includes a door open / close sensor 39 that detects an open / closed state of the door. The detection results of the remaining toner sensor 38 and the door opening / closing sensor 39 are output to the control unit 10.

次に図3は、携帯端末装置3のハードウェア構成の一例を示すブロック図である。携帯端末装置3は、制御部40と、表示部41と、操作部42と、マイク43と、スピーカー44と、撮像部45と、記憶部46と、加速度センサー49と、近距離通信インタフェース50とを備えている。   Next, FIG. 3 is a block diagram illustrating an example of a hardware configuration of the mobile terminal device 3. The mobile terminal device 3 includes a control unit 40, a display unit 41, an operation unit 42, a microphone 43, a speaker 44, an imaging unit 45, a storage unit 46, an acceleration sensor 49, and a short-range communication interface 50. It has.

制御部40は、CPU40aとメモリ40bとを備え、各部の動作を制御する。CPU40aは、記憶部46に記憶されているプログラム47を読み出して実行することにより、画像処理装置2と連携するためのアプリケーションを起動し、制御部40を後述する各種の処理部として機能させる。メモリ40bは、CPU40aがプログラム47に基づく処理を実行する際に一時的なデータなどを記憶するためのものである。   The control unit 40 includes a CPU 40a and a memory 40b, and controls the operation of each unit. The CPU 40a reads out and executes the program 47 stored in the storage unit 46, thereby starting an application for cooperating with the image processing apparatus 2, and causing the control unit 40 to function as various processing units described later. The memory 40b is for storing temporary data or the like when the CPU 40a executes processing based on the program 47.

表示部41は、ユーザーに対して各種の画像を表示する表示手段であり、例えばカラー液晶ディスプレイによって構成される。操作部42は、ユーザーによる操作を受け付けるためのものであり、例えば表示部41の画面上に配置されるタッチパネルキーや、表示部41の画面周囲に配置される押しボタンキーなどによって構成される。   The display unit 41 is a display unit that displays various images to the user, and includes, for example, a color liquid crystal display. The operation unit 42 is for accepting an operation by a user, and includes, for example, touch panel keys arranged on the screen of the display unit 41, push button keys arranged around the screen of the display unit 41, and the like.

マイク43は、周囲の音声を音声信号に変換して制御部40へ出力するものである。スピーカー44は、制御部40から入力する音声信号に基づいて周囲に音声を出力するものである。撮像部45は、例えば表示部41の表示画面の周囲所定位置に設けられ、表示部41の表示画面に対して法線方向にある物体を撮影することが可能な撮像手段である。   The microphone 43 converts ambient sound into a sound signal and outputs the sound signal to the control unit 40. The speaker 44 outputs sound to the surroundings based on the sound signal input from the control unit 40. The imaging unit 45 is an imaging unit that is provided at a predetermined position around the display screen of the display unit 41, for example, and can capture an object in the normal direction with respect to the display screen of the display unit 41.

記憶部46は、例えばハードディスクドライブ(HDD)やソリッドステートドライブ(SSD)などによって構成される不揮発性の記憶手段である。この記憶部46には、上述したプログラム47が予め記憶されている。また記憶部46には、予め操作案内登録情報48が記憶されている。操作案内登録情報48は、制御部40において画像処理装置2と連携するアプリケーションが起動した場合に、そのアプリケーションによって参照される情報である。   The storage unit 46 is a nonvolatile storage unit configured by, for example, a hard disk drive (HDD) or a solid state drive (SSD). The storage unit 46 stores the above-described program 47 in advance. Further, operation guide registration information 48 is stored in the storage unit 46 in advance. The operation guidance registration information 48 is information that is referred to by an application when an application that cooperates with the image processing apparatus 2 is activated in the control unit 40.

加速度センサー49は、携帯端末装置3に作用する加速度を検知するセンサーである。ユーザーが携帯端末装置3を所持している場合、加速度センサー49は、ユーザーの動作に伴う加速度を検知し、その加速度を制御部40へ出力する。これに対し、ユーザーが携帯端末装置3を床面などの静止物上に置いた状態のときには、加速度センサー49は加速度を検知しないため、制御部40へ出力される加速度はゼロとなる。   The acceleration sensor 49 is a sensor that detects acceleration acting on the mobile terminal device 3. When the user has the mobile terminal device 3, the acceleration sensor 49 detects the acceleration accompanying the user's operation and outputs the acceleration to the control unit 40. On the other hand, when the user places the mobile terminal device 3 on a stationary object such as a floor surface, the acceleration sensor 49 does not detect acceleration, so the acceleration output to the control unit 40 is zero.

近距離通信インタフェース50は、画像処理装置2と近距離通信を行うためのインタフェースである。例えば近距離通信インタフェース50は、画像処理装置2と同様に、NFC(Near Field Communication)やBluetooth(登録商標)などの規格に基づく無線通信を行うインタフェースである。   The near field communication interface 50 is an interface for performing near field communication with the image processing apparatus 2. For example, the short-range communication interface 50 is an interface that performs wireless communication based on standards such as NFC (Near Field Communication) and Bluetooth (registered trademark), as with the image processing apparatus 2.

上記構成を有する画像処理システム1は、画像処理装置2で紙詰まりなどのエラーが発生し、携帯端末装置3がエラーを解除するための操作を案内するとき、ユーザーが行うべき操作の種類、又は、ユーザーによる携帯端末装置3の保持状態に応じて、音声による案内と、画像による案内と、を切り替えるように構成される。以下、このような画像処理システム1について更に詳しく説明する。   In the image processing system 1 having the above configuration, when an error such as a paper jam occurs in the image processing apparatus 2 and the mobile terminal apparatus 3 guides an operation for canceling the error, the type of operation to be performed by the user, or The voice guidance and the image guidance are switched according to the holding state of the mobile terminal device 3 by the user. Hereinafter, the image processing system 1 will be described in more detail.

図4は、画像処理装置2及び携帯端末装置3の機能構成を示すブロック図である。尚、図4では、画像処理装置2においてエラーが発生した場合にそのエラーに関する処理を行うための機能だけを示しており、画像処理装置2が正常動作している場合の機能については図示を省略している。また図4に示すセンサー群19は、図2に示した紙詰まりセンサー22、カバー開閉センサー23、用紙エンプティセンサー32、トレー開閉センサー33、紙詰まりセンサー35、扉開閉センサー36、トナー残量センサー38及び扉開閉センサー39を含むものである。   FIG. 4 is a block diagram illustrating functional configurations of the image processing device 2 and the mobile terminal device 3. Note that FIG. 4 shows only a function for performing processing related to an error when an error occurs in the image processing apparatus 2, and does not show the function when the image processing apparatus 2 is operating normally. doing. 4 includes the paper jam sensor 22, the cover open / close sensor 23, the paper empty sensor 32, the tray open / close sensor 33, the paper jam sensor 35, the door open / close sensor 36, and the remaining toner sensor 38 shown in FIG. And a door opening / closing sensor 39.

まず画像処理装置2の制御部10は、CPU10aがプログラム14を実行することにより、エラー検知部61、操作情報生成部62、操作判別部63及び操作情報送信部64として機能する。   First, the control unit 10 of the image processing apparatus 2 functions as an error detection unit 61, an operation information generation unit 62, an operation determination unit 63, and an operation information transmission unit 64 when the CPU 10 a executes the program 14.

エラー検知部61は、センサー群19に含まれる複数のセンサーのうち、いずれかのセンサーが異常を検知した場合に、その異常をエラーとして検知するものである。例えば紙詰まりセンサー22,35が紙詰まりを検知した場合、用紙エンプティセンサー32が用紙エンプティを検知した場合、或いは、トナー残量センサー38がトナーエンプティを柄検知した場合、エラー検知部61は、画像処理装置2においてエラーが発生したことを検知する。エラー検知部61は、エラーの発生を検知すると、エラー発生を示すアラートを発生させる。これにより、ユーザーは、画像処理装置2においてエラーが発生したことを把握することができる。またエラー検知部61は、エラーの発生を検知すると、操作情報生成部62を機能させる。   The error detection unit 61 detects an abnormality as an error when any one of the plurality of sensors included in the sensor group 19 detects the abnormality. For example, when the paper jam sensors 22 and 35 detect a paper jam, when the paper empty sensor 32 detects paper empty, or when the toner remaining amount sensor 38 detects a toner empty pattern, the error detection unit 61 displays an image. It is detected that an error has occurred in the processing device 2. When detecting the occurrence of an error, the error detection unit 61 generates an alert indicating the occurrence of the error. Accordingly, the user can grasp that an error has occurred in the image processing apparatus 2. Further, when detecting the occurrence of an error, the error detection unit 61 causes the operation information generation unit 62 to function.

操作情報生成部62は、エラー検知部61によってエラーが検知されると、記憶部13からエラー判別情報15を読み出して参照することにより、そのエラーを解除するためにユーザーが行うべき操作を特定し、操作情報を生成する。   When an error is detected by the error detection unit 61, the operation information generation unit 62 reads out and refers to the error determination information 15 from the storage unit 13 to identify an operation that should be performed by the user in order to cancel the error. , Generate operation information.

図5は、エラー判別情報15の一例を示す図である。例えばエラー判別情報15は、エラーを検知するセンサーごとに、エラーのタイプを複数のタイプに区別した情報である。またエラー判別情報15には、図5に示すように、エラーを検知するセンサーごとに、そのエラーを解除するためにユーザーが行うべき操作が定義されている。ユーザーが行うべき操作は、複数のステップからなり、各ステップの操作を順に行っていくことによりエラーを適切に解除することができるようになっている。例えばスキャナ部20の原稿搬送部21に設けられた紙詰まりセンサー22が紙詰まりのエラーを検知した場合の解除操作として、第1ステップ、第2ステップ及び第3ステップの3つのステップが定められており、第1ステップでは、ユーザーがカバーを開放する操作を行い、第2ステップでは、ユーザーがジャム状態の紙を抜き取る操作を行い、第3ステップでは、ユーザーがカバーを閉鎖する操作を行うことが定義されている。また例えばプリンタ部30の給紙部31に設けられている一つの用紙エンプティセンサー32が用紙エンプティのエラーを検知した場合の解除操作として、第1ステップ、第2ステップ、第3ステップ及び第4ステップの4つのステップが定められており、第1ステップでは、ユーザーが扉を開放する操作を行い、第2ステップでは、ユーザーがレバーを持ち上げる操作を行い、第3ステップでは、ユーザーがレバーを持ち上げたままで用紙を抜き取る操作を行い、第4ステップでは、ユーザーが扉を閉鎖する操作を行うことが定義されている。そして図5に示すエラー判別情報15では、ユーザーが行うべき操作のステップごとに、ユニークな識別情報である操作情報が付与されている。   FIG. 5 is a diagram illustrating an example of the error determination information 15. For example, the error determination information 15 is information in which the error type is classified into a plurality of types for each sensor that detects an error. Further, as shown in FIG. 5, the error determination information 15 defines an operation to be performed by the user in order to cancel the error for each sensor that detects the error. The operation to be performed by the user is composed of a plurality of steps, and the error can be appropriately canceled by sequentially performing the operations of each step. For example, three steps of the first step, the second step, and the third step are defined as the release operation when the paper jam sensor 22 provided in the document conveyance unit 21 of the scanner unit 20 detects a paper jam error. In the first step, the user performs an operation of opening the cover, in the second step, the user performs an operation of removing the jammed paper, and in the third step, the user performs an operation of closing the cover. Is defined. Further, for example, the first step, the second step, the third step, and the fourth step may be performed as a release operation when one paper empty sensor 32 provided in the paper feeding unit 31 of the printer unit 30 detects a paper empty error. In the first step, the user opens the door. In the second step, the user lifts the lever. In the third step, the user lifts the lever. In the fourth step, it is defined that the user performs an operation of closing the door. In the error determination information 15 shown in FIG. 5, operation information that is unique identification information is given for each operation step to be performed by the user.

操作情報生成部62は、上記のようなエラー判別情報15を参照することにより、エラーを検出したセンサーに対応する解除操作を、ユーザーが行うべき操作として特定し、その特定した操作の各ステップに定められている操作情報を読み出すことにより、操作情報を生成する。そして操作情報生成部62は、エラーを検出したセンサーに対応する解除操作に含まれる各ステップの操作情報を操作情報送信部64へ出力する。   The operation information generation unit 62 refers to the error determination information 15 as described above, identifies the release operation corresponding to the sensor that has detected the error as an operation to be performed by the user, and sets each step of the identified operation. Operation information is generated by reading predetermined operation information. Then, the operation information generation unit 62 outputs the operation information of each step included in the release operation corresponding to the sensor that has detected the error to the operation information transmission unit 64.

操作情報送信部64は、エラー検知部61によってエラーが検知されると、近距離通信インタフェース16を介して携帯端末装置3と通信可能な状態であるかを監視する。携帯端末装置3と通信可能な状態である場合、操作情報送信部64は、その携帯端末装置3に対し、画像処理装置2と連携するアプリケーションが起動しているか否かを問い合わせる。携帯端末装置3においてアプリケーションが起動していれば、操作情報送信部64は、その問い合わせに対する適切な応答を携帯端末装置3のアプリケーションから受信する。これにより、操作情報送信部64は、通信可能な携帯端末装置3においてアプリケーションが起動していることを把握することができる。操作情報送信部64は、携帯端末装置3においてアプリケーションが起動していることを検知すると、操作情報生成部62から出力される操作情報を携帯端末装置3へ送信する。   When an error is detected by the error detection unit 61, the operation information transmission unit 64 monitors whether communication with the mobile terminal device 3 is possible via the short-range communication interface 16. When the mobile terminal device 3 is in a communicable state, the operation information transmission unit 64 inquires of the mobile terminal device 3 whether or not an application that cooperates with the image processing device 2 is activated. If the application is activated in the mobile terminal device 3, the operation information transmission unit 64 receives an appropriate response to the inquiry from the application of the mobile terminal device 3. Thereby, the operation information transmission part 64 can grasp | ascertain that the application is starting in the portable terminal device 3 which can communicate. When the operation information transmission unit 64 detects that the application is activated in the mobile terminal device 3, the operation information transmission unit 64 transmits the operation information output from the operation information generation unit 62 to the mobile terminal device 3.

これに対し、操作情報送信部64は、通信可能な携帯端末装置3においてアプリケーションが起動していないと判断した場合、携帯端末装置3においてアプリケーションが起動するまで待機する。ただし、これに限られるものではなく、操作情報送信部64は、携帯端末装置3に対してアプリケーションの起動命令を送信するようにしても良い。これにより、携帯端末装置3においてアプリケーションが自動的に起動される。そして操作情報送信部64は、携帯端末装置3においてアプリケーションが起動したことを確認した後、操作情報生成部62から出力される操作情報を携帯端末装置3へ送信する。   On the other hand, when the operation information transmission unit 64 determines that the application is not activated in the communicable mobile terminal device 3, the operation information transmission unit 64 stands by until the application is activated in the mobile terminal device 3. However, the present invention is not limited to this, and the operation information transmission unit 64 may transmit an application activation command to the mobile terminal device 3. Thereby, an application is automatically started in the portable terminal device 3. The operation information transmission unit 64 transmits operation information output from the operation information generation unit 62 to the mobile terminal device 3 after confirming that the application is activated in the mobile terminal device 3.

操作情報送信部64は、操作情報を携帯端末装置3へ送信するとき、ユーザーが行うべき操作に含まれる複数のステップの操作情報を1つずつ順に携帯端末装置3へ送信する。例えば、エラー検知部61によってエラーが検知された時には、第1ステップの操作情報を携帯端末装置3へ送信し、その後、ユーザーによる操作が第1ステップから第2ステップへ進行するときに第2ステップの操作情報を送信する。これにより、携帯端末装置3は、ユーザーによる操作の進行に合わせて適切な案内を行うことができるようになる。   When transmitting the operation information to the mobile terminal device 3, the operation information transmitting unit 64 transmits the operation information of a plurality of steps included in the operation to be performed by the user to the mobile terminal device 3 one by one. For example, when an error is detected by the error detection unit 61, the operation information of the first step is transmitted to the mobile terminal device 3, and then the second step is performed when the operation by the user proceeds from the first step to the second step. Send operation information for. Thereby, the portable terminal device 3 can perform appropriate guidance according to the progress of the operation by the user.

操作判別部63は、センサー群19に含まれる複数のセンサーの出力を監視し、ユーザーによって行われる解除操作が正しい順序で行われているか否かを判別する処理部である。例えばスキャナ部20の原稿搬送部21に設けられた紙詰まりセンサー22がエラーを検知した場合、ユーザーが行うべき操作の第1ステップは、カバーを開放する操作である。そのため、操作判別部63は、スキャナ部20の原稿搬送部21に設けられたカバー開閉センサー23の出力を監視し、原稿搬送部21のカバーが開放されたか否かを判別する。そして原稿搬送部21のカバーが開放されたことを検知すると、操作判別部63は、ユーザーによる操作が正しい順序で行われていると判断し、操作情報送信部64に対してステップの進行を指示する。これに対し、カバー開閉センサー23がカバーの開放を検知することなく、別の扉開閉センサー36,39などが扉の開放を検知した場合、操作判別部63は、ユーザーによる操作が誤操作であると判断する。この場合、操作判別部63は、操作情報送信部64に対して誤操作情報を出力する。また操作判別部63は、誤操作を検知した場合、誤操作を示すアラートを発生させると共に、操作パネル11の表示部11aに誤操作である旨を表示させるようにしても良い。   The operation determination unit 63 is a processing unit that monitors the outputs of a plurality of sensors included in the sensor group 19 and determines whether or not release operations performed by the user are performed in the correct order. For example, when the paper jam sensor 22 provided in the document conveying unit 21 of the scanner unit 20 detects an error, the first step of the operation to be performed by the user is an operation of opening the cover. Therefore, the operation determination unit 63 monitors the output of the cover opening / closing sensor 23 provided in the document conveyance unit 21 of the scanner unit 20 and determines whether or not the cover of the document conveyance unit 21 has been opened. When it is detected that the cover of the document transport unit 21 is opened, the operation determination unit 63 determines that the user's operation is performed in the correct order, and instructs the operation information transmission unit 64 to proceed with the step. To do. On the other hand, if the cover opening / closing sensor 23 does not detect the opening of the cover and another door opening / closing sensor 36, 39 detects the opening of the door, the operation determination unit 63 indicates that the operation by the user is an erroneous operation. to decide. In this case, the operation determination unit 63 outputs erroneous operation information to the operation information transmission unit 64. In addition, when an operation error is detected, the operation determination unit 63 may generate an alert indicating an operation error and may display an indication of an operation error on the display unit 11a of the operation panel 11.

操作情報送信部64は、操作判別部63からステップの進行が指示された場合、ユーザーが行うべき操作に次のステップがあれば、次のステップに対応する操作情報を携帯端末装置3へ送信する。これに対し、次のステップに対応する操作情報が存在せず、全てのステップが終了したと判断すると、操作情報送信部64は、携帯端末装置3に対してエラー解除通知を送信する。これにより、携帯端末装置3において起動しているアプリケーションは、画像処理装置2との連携処理を終了させることができる。   The operation information transmission unit 64 transmits the operation information corresponding to the next step to the portable terminal device 3 if the operation to be performed by the user has the next step when the operation determination unit 63 is instructed to proceed with the step. . On the other hand, if there is no operation information corresponding to the next step and it is determined that all steps have been completed, the operation information transmission unit 64 transmits an error release notification to the mobile terminal device 3. Thereby, the application activated in the portable terminal device 3 can end the cooperation processing with the image processing device 2.

また操作情報送信部64は、操作判別部63から誤操作情報を取得した場合、その誤操作情報を携帯端末装置3へ送信する。これにより、携帯端末装置3は、ユーザーに対して誤操作を行ったことを報知することができる。   When the operation information transmission unit 64 acquires the erroneous operation information from the operation determination unit 63, the operation information transmission unit 64 transmits the erroneous operation information to the mobile terminal device 3. Thereby, the mobile terminal device 3 can notify the user that an erroneous operation has been performed.

次に携帯端末装置3は、CPU40aがプログラム47を実行することにより制御部40において画像処理装置2と連携するアプリケーションを起動させると、制御部40は、操作情報受信部71、案内方法判別部72及び操作案内部73として機能する。尚、制御部40のCPU40aは、ユーザーによる起動指示に基づいてプログラム47を実行するものであっても良いし、画像処理装置2から送信されるアプリケーションの起動命令に基づいてプログラム47を自動的に実行するものであっても良い。例えば画像処理装置2においてエラーの発生が検知されると、画像処理装置2からアラートが発せられる。そのため、ユーザーは、画像処理装置2から発せられるアラートによってエラーの発生を把握することができ、アプリケーションを手動で起動させることもできる。   Next, when the mobile terminal device 3 starts the application that cooperates with the image processing device 2 in the control unit 40 by the CPU 40a executing the program 47, the control unit 40 causes the operation information reception unit 71 and the guidance method determination unit 72 to operate. And it functions as the operation guide part 73. The CPU 40a of the control unit 40 may execute the program 47 based on a start instruction by the user, or automatically execute the program 47 based on an application start command transmitted from the image processing apparatus 2. It may be executed. For example, when the occurrence of an error is detected in the image processing apparatus 2, an alert is issued from the image processing apparatus 2. Therefore, the user can grasp the occurrence of an error by an alert issued from the image processing apparatus 2 and can also start the application manually.

操作情報受信部71は、近距離通信インタフェース50を介して画像処理装置2と通信を行うものである。まずアプリケーションが起動すると、操作情報受信部71は、画像処理装置2に対してアプリケーションの起動を通知する。これにより、画像処理装置2は、携帯端末装置3においてアプリケーションが起動したことを把握することができる。その後、操作情報受信部71は、画像処理装置2から送信される操作情報を受信する。操作情報受信部71は、エラーを解除するためにユーザーが行うべき操作に関する操作情報を受信する都度、その操作情報を案内方法判別部72へ出力する。また操作情報受信部71は、画像処理装置2から誤操作情報やエラー解除通知を受信した場合にも、それらを案内方法判別部72へ出力する。   The operation information receiving unit 71 communicates with the image processing apparatus 2 via the short-range communication interface 50. First, when the application is activated, the operation information receiving unit 71 notifies the image processing apparatus 2 of activation of the application. Thereby, the image processing apparatus 2 can grasp that the application is started in the mobile terminal device 3. Thereafter, the operation information receiving unit 71 receives operation information transmitted from the image processing apparatus 2. The operation information receiving unit 71 outputs the operation information to the guidance method determination unit 72 every time it receives operation information related to an operation to be performed by the user in order to cancel the error. The operation information receiving unit 71 also outputs erroneous operation information and error release notifications from the image processing device 2 to the guidance method determination unit 72 even when they are received.

案内方法判別部72は、ユーザーが行うべき操作を案内するとき、音声による案内と、画像による案内とのいずれの方法で案内を行うかを判別する処理部である。案内方法判別部72は、操作情報受信部71が操作情報を受信すると、まず操作案内登録情報48を参照し、ユーザーが行うべき操作の種類を判別する。   The guidance method discriminating unit 72 is a processing unit that discriminates whether to perform guidance by voice or guidance by image when guiding an operation to be performed by the user. When the operation information receiving unit 71 receives the operation information, the guidance method determining unit 72 first refers to the operation guide registration information 48 to determine the type of operation to be performed by the user.

図6は、操作案内登録情報48の一例を示す図である。図6に示すように、操作案内登録情報48は、画像処理装置2から受信するステップごとの操作情報48aと、画像による案内を行うための画像データ48bと、音声による案内を行うための音声データ48cと、ユーザーが行うべき操作として両手操作が必要であるか否かを示す両手操作情報48dとのそれぞれを互いに対応付けて登録された情報である。ステップごとの操作情報48aに対応付けられる画像データ48bは、当該ステップに対応する操作を画像表示でユーザーに案内するための動画データであり、一定のフレームレートで逐次画像が更新されるデータである。またステップごとの操作情報48aに対応付けられる音声データ48cは、当該ステップに対応する操作を音声出力でユーザーに案内するための音声データであり、時系列の音声信号が記録されたデータである。両手操作情報48dは、当該ステップにおける操作をユーザーが両手で行うことが必要か否かを判別するための情報であり、ユーザーが片手で操作を行うことができる場合には「不要」が記録されている。   FIG. 6 is a diagram illustrating an example of the operation guidance registration information 48. As shown in FIG. 6, the operation guidance registration information 48 includes operation information 48 a for each step received from the image processing apparatus 2, image data 48 b for performing guidance by image, and audio data for performing guidance by voice. 48c and two-hand operation information 48d indicating whether or not a two-hand operation is necessary as an operation to be performed by the user, is registered information in association with each other. The image data 48b associated with the operation information 48a for each step is moving image data for guiding the operation corresponding to the step to the user by image display, and is data in which images are sequentially updated at a constant frame rate. . The audio data 48c associated with the operation information 48a for each step is audio data for guiding the operation corresponding to the step to the user by audio output, and is data in which time-series audio signals are recorded. The two-hand operation information 48d is information for determining whether or not the user needs to perform the operation in the step with both hands. When the user can perform the operation with one hand, “unnecessary” is recorded. ing.

図6に示す操作案内登録情報48では、操作情報48aが「C002」、「D002」、「D003」、「E002」、「E003」、「F002」及び「F003」である場合に、両手操作が必要であることが記録されている。   In the operation guidance registration information 48 shown in FIG. 6, when the operation information 48a is “C002”, “D002”, “D003”, “E002”, “E003”, “F002”, and “F003”, It is recorded that it is necessary.

ここで、図5を参照すると、操作情報「C002」のステップに対応する操作は、A3サイズの用紙を補給する操作である。これに対し、「B002」のステップに対応するA4サイズの用紙を補給する操作の場合には、図6を参照すると、両手操作が不要であることが記録されている。つまり、図6に示す操作案内登録情報48では、ユーザーが行うべき操作が両手で保持することが必要な所定サイズ以上の用紙を補給する操作である場合に両手で操作を行う必要のある操作であることが登録されている。   Here, referring to FIG. 5, the operation corresponding to the step of the operation information “C002” is an operation of supplying A3-size paper. On the other hand, in the case of an operation of supplying A4 size paper corresponding to the step “B002”, referring to FIG. 6, it is recorded that the two-hand operation is unnecessary. That is, the operation guidance registration information 48 shown in FIG. 6 is an operation that needs to be operated with both hands when the operation to be performed by the user is an operation for supplying paper of a predetermined size or more that needs to be held with both hands. There are registered.

また図5を参照すると、操作情報「D002」及び「D003」のステップに対応する操作は、レバーを持ち上げた後、そのレバーを持ち上げた状態のままで用紙を抜き取る操作である。つまり、図6に示す操作案内登録情報48では、ユーザーが行うべき操作が一方の手でレバーを操作しながら他方の手で紙を取り出す操作である場合に両手で行う必要のある操作であることが登録されている。   Referring to FIG. 5, the operation corresponding to the steps of the operation information “D002” and “D003” is an operation of pulling out a sheet with the lever lifted after the lever is lifted. That is, the operation guidance registration information 48 shown in FIG. 6 is an operation that needs to be performed with both hands when the operation to be performed by the user is an operation of taking out the paper with the other hand while operating the lever with one hand. Is registered.

また図5を参照すると、操作情報「E002」及び「E003」のステップに対応する操作は、ローラーを回転させつつ、用紙を抜き取る操作である。つまり、図6に示す操作案内登録情報48では、ユーザーが行うべき操作が一方の手でローラーを手動回転させながら他方の手で紙を取り出す操作である場合に両手で行う必要のある操作であることが登録されている。   Referring to FIG. 5, the operation corresponding to the steps of the operation information “E002” and “E003” is an operation of removing the paper while rotating the roller. That is, the operation guidance registration information 48 shown in FIG. 6 is an operation that needs to be performed with both hands when the operation to be performed by the user is to manually rotate the roller with one hand and take out the paper with the other hand. It is registered.

さらに図5を参照すると、操作情報「F002」及び「F003」のステップに対応する操作は、トナーを交換する操作である。つまり、図6に示す操作案内登録情報48では、両手で保持することが必要なトナーを交換する操作である場合に両手で行う必要のある操作であることが登録されている。   Still referring to FIG. 5, the operations corresponding to the steps of the operation information “F002” and “F003” are operations for exchanging toner. That is, in the operation guidance registration information 48 shown in FIG. 6, it is registered that the operation needs to be performed with both hands when it is an operation to replace the toner that needs to be held with both hands.

図7は、操作案内登録情報48に登録される画像データ48bの一例を示す図である。尚、図7では、用紙エンプティセンサー32(図5に示す「用紙エンプティセンサー1」)がエラーを検知した場合の各ステップの画像データ48bを例示している。図7(a)は第1ステップの操作をユーザーに画像で案内するときの画像データ48bを示している。第1ステップにおいてユーザーが行うべき操作は、トレー1を開放する操作であるため、図7(a)に示すように第1ステップに対応する画像データ48bにはトレー1を開放する動画が記録されている。図7(b)は第2ステップの操作をユーザーに画像で案内するときの画像データ48bを示している。第2ステップにおいてユーザーが行うべき操作は、A4サイズの用紙をトレー1に補給する操作であるため、図7(b)に示すように第2ステップに対応する画像データ48bにはA4サイズの用紙を補給する動画が記録されている。図7(c)は第3ステップの操作をユーザーに画像で案内するときの画像データ48bを示している。第3ステップにおいてユーザーが行うべき操作は、トレー1を閉鎖する操作であるため、図7(c)に示すように第3ステップに対応する画像データ48bにはトレー1を閉鎖する動画が記録されている。   FIG. 7 is a diagram illustrating an example of image data 48 b registered in the operation guidance registration information 48. 7 illustrates the image data 48b of each step when the paper empty sensor 32 (“paper empty sensor 1” shown in FIG. 5) detects an error. FIG. 7A shows image data 48b when the operation of the first step is guided to the user by an image. Since the operation to be performed by the user in the first step is an operation to open the tray 1, as shown in FIG. 7A, a moving image for opening the tray 1 is recorded in the image data 48b corresponding to the first step. ing. FIG. 7B shows image data 48b when the operation of the second step is guided to the user by an image. Since the operation to be performed by the user in the second step is an operation of supplying A4 size paper to the tray 1, as shown in FIG. 7B, the image data 48b corresponding to the second step includes A4 size paper. A movie to replenish is recorded. FIG. 7C shows image data 48b when the operation of the third step is guided to the user by an image. Since the operation to be performed by the user in the third step is an operation for closing the tray 1, as shown in FIG. 7C, a moving image for closing the tray 1 is recorded in the image data 48b corresponding to the third step. ing.

図8は、操作案内登録情報48に登録される音声データ48cの一例を示す図である。尚、図8では、図7と同様に、用紙エンプティセンサー32(図5に示す「用紙エンプティセンサー1」)がエラーを検知した場合の各ステップの音声データ48cを例示している。図8(a)は第1ステップの操作をユーザーに画像で案内するときの音声データ48cを示している。第1ステップにおいてユーザーが行うべき操作は、トレー1を開放する操作であるため、図8(a)に示すように第1ステップに対応する音声データ48cが再生されると、携帯端末装置3から「トレー1を開放してください」という音声が出力される。図8(b)は第2ステップの操作をユーザーに画像で案内するときの音声データ48cを示している。第2ステップにおいてユーザーが行うべき操作は、A4サイズの用紙をトレー1に補給する操作であるため、図8(b)に示すように第2ステップに対応する音声データ48cが再生されると、携帯端末装置3から「A4用紙を補給してください」という音声が出力される。図8(c)は第3ステップの操作をユーザーに画像で案内するときの音声データ48cを示している。第3ステップにおいてユーザーが行うべき操作は、トレー1を閉鎖する操作であるため、図8(c)に示すように第3ステップに対応する音声データ48cが再生されると、携帯端末装置3から「トレー1を閉じてください」という音声が出力される。ただし、このような音声による案内は、画像による案内に比べて、トレー1の位置をユーザーが正確に把握することが難しい案内となる。   FIG. 8 is a diagram illustrating an example of audio data 48 c registered in the operation guidance registration information 48. 8 exemplifies the audio data 48c at each step when the paper empty sensor 32 (“paper empty sensor 1” shown in FIG. 5) detects an error, as in FIG. FIG. 8A shows audio data 48c when the operation of the first step is guided to the user by an image. Since the operation to be performed by the user in the first step is an operation to open the tray 1, when the audio data 48c corresponding to the first step is reproduced as shown in FIG. The sound “Please open tray 1” is output. FIG. 8B shows audio data 48c when the operation of the second step is guided to the user by an image. Since the operation to be performed by the user in the second step is an operation of supplying A4-size paper to the tray 1, when the audio data 48c corresponding to the second step is reproduced as shown in FIG. The mobile terminal device 3 outputs a voice “please replenish A4 paper”. FIG. 8C shows audio data 48c when the operation of the third step is guided to the user by an image. Since the operation to be performed by the user in the third step is an operation to close the tray 1, when the audio data 48c corresponding to the third step is reproduced as shown in FIG. A sound “Please close tray 1” is output. However, such voice guidance is difficult for the user to accurately grasp the position of the tray 1 as compared with guidance by image.

このように操作案内登録情報48には、ユーザーが行うべき操作のステップごとに、画像による案内を行うための画像データ48bと、音声による案内を行うための音声データ48cとが予め登録されている。尚、画像データ48bは、音声データ48cと同様の音声を含むデータであっても構わない。ただし、画像データ48bに基づく動画を表示するときに音声を同時に出力するようにすると、CPU40aには動画表示のための負荷と音声再生のための負荷とが同時にかかることになり、携帯端末装置3の電力消費量が高くなる。これを抑制するためには、画像データ48bを、音声を含まないデータで構成することが好ましい。   Thus, in the operation guidance registration information 48, image data 48b for performing guidance by image and voice data 48c for performing guidance by voice are registered in advance for each operation step to be performed by the user. . The image data 48b may be data including sound similar to the sound data 48c. However, if the audio is simultaneously output when displaying the moving image based on the image data 48b, the load for displaying the moving image and the load for reproducing the sound are simultaneously applied to the CPU 40a. The power consumption will be higher. In order to suppress this, it is preferable that the image data 48b is composed of data that does not include sound.

案内方法判別部72は、上記のような操作案内登録情報48を参照することにより、画像処理装置2から受信した操作情報に対応するステップにおいてユーザーが両手操作を行う必要があるか否かを判別する。エラーを解除するために両手操作を行うことが必要な場合、ユーザーは携帯端末装置3を片手に持った状態で操作を行うことができない。そのため、携帯端末装置3の表示部41に画像データ48bに基づく画像による案内を表示したとしても、ユーザーは、画像による案内を見ることができない。そこで案内方法判別部72は、両手操作を行うことが必要な場合、音声による案内を行うことを決定する。   The guidance method discriminating unit 72 discriminates whether or not the user needs to perform a two-hand operation in the step corresponding to the operation information received from the image processing device 2 by referring to the operation guidance registration information 48 as described above. To do. When it is necessary to perform a two-handed operation to cancel the error, the user cannot perform the operation with the portable terminal device 3 held in one hand. Therefore, even if the guidance based on the image based on the image data 48 b is displayed on the display unit 41 of the mobile terminal device 3, the user cannot see the guidance based on the image. Therefore, the guidance method discriminating unit 72 determines to perform voice guidance when it is necessary to perform a two-handed operation.

これに対し、片手で操作を行うことが可能な場合、ユーザーは携帯端末装置3を一方の手に持った状態で他方の手で操作を行うことができる。つまり、片手で操作を行うことが可能な場合、ユーザーは、画像による案内を見ながら操作を進めることができる。そこで案内方法判別部72は、画像処理装置2から受信した操作情報に対応するステップにおいてユーザーが片手で操作を行うことが可能な場合、画像による案内を行うことを決定する。   On the other hand, when the operation can be performed with one hand, the user can perform the operation with the other hand while holding the mobile terminal device 3 in one hand. That is, when the operation can be performed with one hand, the user can proceed with the operation while viewing the guidance based on the image. Therefore, the guidance method discriminating unit 72 determines to perform guidance using an image when the user can operate with one hand in the step corresponding to the operation information received from the image processing apparatus 2.

案内方法判別部72は、画像処理装置2から操作情報を受信する都度、上記のような判別処理を行う。すなわち、案内方法判別部72は、ユーザーが行うべき操作に含まれるステップごとに、音声による案内と、画像による案内とのいずれの方法で案内を行うかを決定する。   The guidance method determination unit 72 performs the determination process as described above every time operation information is received from the image processing apparatus 2. That is, the guidance method discriminating unit 72 determines whether guidance is performed using voice guidance or image guidance for each step included in the operation to be performed by the user.

また案内方法判別部72は、画像認識部81、操作検知部82、音声認識部83及び加速度判定部84を備えている。そして案内方法判別部72は、画像認識部81、操作検知部82、音声認識部83及び加速度判定部84のそれぞれの検知結果に基づいて音声による案内と画像による案内との切り替えを行うことができるように構成される。   The guidance method determination unit 72 includes an image recognition unit 81, an operation detection unit 82, a voice recognition unit 83, and an acceleration determination unit 84. The guidance method determination unit 72 can switch between voice guidance and image guidance based on the detection results of the image recognition unit 81, the operation detection unit 82, the voice recognition unit 83, and the acceleration determination unit 84. Configured as follows.

画像認識部81は、撮像部45を駆動して表示部41の正面側を撮影した撮影画像を取得し、その撮影画像にユーザーの顔画像が含まれるか否かを認識する処理部である。例えば画像認識部81は、携帯端末装置3においてアプリケーションが起動し、画像処理装置2との連携動作を行っている状態のときに、一定周期で撮像部45を駆動し、撮影画像を一定周期で取得する。そして画像認識部81は、撮像部45から撮影画像を取得する度に、その撮影画像にユーザーの顔画像が含まれているか否かを認識する。このような画像認識を一定周期間隔で行うことにより、ユーザーが表示部41を視認しているか否かを逐次判定することができるようになる。   The image recognition unit 81 is a processing unit that drives the imaging unit 45 to acquire a captured image obtained by capturing the front side of the display unit 41 and recognizes whether the captured image includes a user's face image. For example, the image recognizing unit 81 drives the imaging unit 45 at a constant cycle and starts taking captured images at a constant cycle when an application is activated on the mobile terminal device 3 and a cooperative operation with the image processing device 2 is performed. get. Then, every time the captured image is acquired from the image capturing unit 45, the image recognizing unit 81 recognizes whether or not the captured image includes the user's face image. By performing such image recognition at regular intervals, it is possible to sequentially determine whether or not the user is viewing the display unit 41.

画像認識部81によって撮影画像にユーザーの顔画像が含まれると判定された場合、案内方法判別部72は、画像による案内を行うことを決定する。つまり、ユーザーが行うべき操作が両手で行うことが必要な操作であっても、ユーザーが表示部41を視認している可能性があれば、画像による案内を行うことを決定するのである。   When the image recognition unit 81 determines that the photographed image includes the user's face image, the guidance method determination unit 72 determines to perform guidance based on the image. That is, even if the operation to be performed by the user is an operation that needs to be performed with both hands, if there is a possibility that the user is viewing the display unit 41, it is determined to perform the guidance based on the image.

これに対し、画像認識部81によって撮影画像にユーザーの顔画像が含まれないと判定された場合、案内方法判別部72は、音声による案内を行うことを決定する。つまり、ユーザーが行うべき操作が片手で行うことが可能な操作であっても、ユーザーが表示部41を視認していないのであれば、画像による案内を行う必要がなく、寧ろ音声による案内を行うことが好ましいため、音声による案内を行うことを決定するのである。ただし、操作案内登録情報48を参照して決定される案内方法が画像による案内であった場合には、撮影画像にユーザーの顔画像が含まれるか否かを判定することなく、画像による案内を行うようにしても良い。なぜなら、音声による案内よりも画像による案内の方がユーザーにとって分かり易いからである。   On the other hand, when the image recognition unit 81 determines that the user's face image is not included in the captured image, the guidance method determination unit 72 determines to perform voice guidance. That is, even if the operation to be performed by the user is an operation that can be performed with one hand, if the user does not visually recognize the display unit 41, it is not necessary to perform guidance by image, but rather guidance by voice. Because it is preferable, it is decided to give guidance by voice. However, when the guidance method determined with reference to the operation guidance registration information 48 is guidance by image, guidance by image is performed without determining whether the photographed image includes the face image of the user. You may make it do. This is because guidance by image is easier for the user to understand than guidance by voice.

操作検知部82は、操作部42に対するユーザーの操作を検知する。操作検知部82が検知するユーザーの操作には、画像による案内を音声による案内に切り替える操作、音声による案内を画像による案内に切り替える操作、音声又は画像による案内を一時停止させる操作、音声又は画像による案内を再生させる操作などが含まれる。案内方法判別部72は、操作検知部82によってそれらの操作が検知された場合には、ユーザーの操作に応じた処理を行う。   The operation detection unit 82 detects a user operation on the operation unit 42. The user operation detected by the operation detection unit 82 includes an operation for switching from image guidance to voice guidance, an operation for switching voice guidance to image guidance, an operation to temporarily pause voice or image guidance, or voice or image. This includes operations for playing guidance. When the operation detection unit 82 detects these operations, the guidance method determination unit 72 performs processing according to the user's operation.

音声認識部83は、マイクから出力される音声信号に基づいてユーザーの音声を認識することにより、携帯端末装置3に対するユーザーの音声による操作を検知する。音声認識部83が検知するユーザーの音声による操作には、上記と同様に、画像による案内を音声による案内に切り替える操作、音声による案内を画像による案内に切り替える操作、音声又は画像による案内を一時停止させる操作、音声又は画像による案内を再生させる操作などが含まれる。そして案内方法判別部72は、音声認識部83によってそれらの操作が検知された場合には、ユーザーの音声による操作に応じた処理を行う。   The voice recognition unit 83 detects the user's voice operation on the portable terminal device 3 by recognizing the user's voice based on the voice signal output from the microphone. As described above, the user's voice operation detected by the voice recognition unit 83 is an operation for switching the image guidance to the voice guidance, the operation for switching the voice guidance to the image guidance, or the voice or image guidance is temporarily stopped. And an operation for reproducing guidance by voice or image. When the voice recognition unit 83 detects these operations, the guidance method determination unit 72 performs processing according to the user's voice operation.

加速度判定部84は、加速度センサー49の出力を監視し、加速度センサー49が加速度を検知している状態であるか否かを判定する。上述したように、加速度センサー49は、ユーザーが携帯端末装置3を所持しているときにはユーザーの動作に伴う加速度を検知するのに対し、ユーザーが携帯端末装置3を所持していないときには加速度を検知しない。そのため、加速度センサー49が加速度を検知している状態であれば、ユーザーが携帯端末装置3を持った状態で表示部41を視認している可能性があると言える。そこで加速度判定部84は、加速度センサー49からの出力に基づき、ユーザーが表示部41を視認している可能性があるか否かを判定するのである。   The acceleration determination unit 84 monitors the output of the acceleration sensor 49 and determines whether or not the acceleration sensor 49 is detecting acceleration. As described above, the acceleration sensor 49 detects the acceleration accompanying the user's operation when the user has the mobile terminal device 3, whereas detects the acceleration when the user does not have the mobile terminal device 3. do not do. Therefore, if the acceleration sensor 49 is detecting acceleration, it can be said that the user may be viewing the display unit 41 while holding the mobile terminal device 3. Therefore, the acceleration determination unit 84 determines whether there is a possibility that the user is viewing the display unit 41 based on the output from the acceleration sensor 49.

加速度判定部84によって加速度が検知されている状態であると判定された場合、案内方法判別部72は、画像による案内を行うことを決定する。つまり、ユーザーが行うべき操作が両手で行うことが必要な操作であっても、ユーザーが表示部41を視認している可能性があれば、画像による案内を行うことを決定するのである。   When it is determined by the acceleration determination unit 84 that the acceleration is being detected, the guidance method determination unit 72 determines to perform image guidance. That is, even if the operation to be performed by the user is an operation that needs to be performed with both hands, if there is a possibility that the user is viewing the display unit 41, it is determined to perform the guidance based on the image.

これに対し、加速度判定部84によって加速度が検知されていない状態であると判定された場合、案内方法判別部72は、音声による案内を行うことを決定する。つまり、ユーザーが行うべき操作が片手で行うことが可能な操作であっても、ユーザーが表示部41を視認していないのであれば、画像による案内を行う必要がなく、寧ろ音声による案内を行うことが好ましいため、音声による案内を行うことを決定するのである。ただし、操作案内登録情報48を参照して決定される案内方法が画像による案内であった場合には、加速度が検知されている状態であるか否かを判定することなく、画像による案内を行うようにしても良い。なぜなら、音声による案内よりも画像による案内の方がユーザーにとって分かり易いからである。   On the other hand, when the acceleration determination unit 84 determines that the acceleration is not detected, the guidance method determination unit 72 determines to perform guidance by voice. That is, even if the operation to be performed by the user is an operation that can be performed with one hand, if the user does not visually recognize the display unit 41, it is not necessary to perform guidance by image, but rather guidance by voice. Because it is preferable, it is decided to give guidance by voice. However, when the guidance method determined with reference to the operation guidance registration information 48 is guidance by image, guidance by image is performed without determining whether or not acceleration is detected. You may do it. This is because guidance by image is easier for the user to understand than guidance by voice.

上記のように案内方法判別部72は、画像認識部81及び加速度判定部84のそれぞれの判定結果に基づいて音声による案内と画像による案内とを切り替えることが可能である。そのため、案内方法判別部72は、ユーザーによる携帯端末装置3の保持状態又はユーザーによる携帯端末装置3の視認状態に応じて音声による案内と画像による案内とを切り替えることが可能である。また案内方法判別部72において、画像認識部81及び加速度判定部84のいずれの判定結果を優先的に採用して案内方法を切り替えるかについては任意である。   As described above, the guidance method determination unit 72 can switch between voice guidance and image guidance based on the determination results of the image recognition unit 81 and the acceleration determination unit 84. Therefore, the guidance method determination unit 72 can switch between voice guidance and image guidance according to the holding state of the mobile terminal device 3 by the user or the visual recognition state of the mobile terminal device 3 by the user. Further, in the guidance method discriminating unit 72, it is arbitrary which of the image recognition unit 81 and the acceleration judging unit 84 is preferentially adopted to switch the guidance method.

操作案内部73は、案内方法判別部72によって決定される案内方法に基づき、ユーザーが行うべき操作の案内処理を行うものである。この操作案内部73は、音声案内部74と、画像案内部75とを備えており、案内方法判別部72の決定結果に基づき音声案内部74及び画像案内部75を択一的に動作させる。   The operation guidance unit 73 performs guidance processing for operations to be performed by the user based on the guidance method determined by the guidance method determination unit 72. The operation guide unit 73 includes a voice guide unit 74 and an image guide unit 75, and alternatively operates the voice guide unit 74 and the image guide unit 75 based on the determination result of the guide method determination unit 72.

音声案内部74は、音声による案内を行う処理部であり、画像処理装置2から受信した操作情報に対応するステップの音声データ48cを読み出し、その音声データ48cに基づいてスピーカー44を駆動することにより、スピーカー44から音声による案内を出力させる。すなわち、音声案内部74は、音声データ48cに基づく音声再生処理をCPU40aに行わせることにより、音声に基づく案内をスピーカー44から出力させるのである。また音声案内部74は、案内方法判別部72から音声による案内の一時停止や再生が指示された場合には、案内方法判別部72からの指示に基づいて音声による案内を一時停止させたり、再生したりする。   The voice guidance unit 74 is a processing unit that performs voice guidance. The voice guidance unit 74 reads the voice data 48c of the step corresponding to the operation information received from the image processing apparatus 2, and drives the speaker 44 based on the voice data 48c. The voice guidance is output from the speaker 44. That is, the voice guidance unit 74 causes the CPU 44a to perform voice reproduction processing based on the voice data 48c, thereby outputting guidance based on voice from the speaker 44. When the guidance method discriminating unit 72 gives an instruction to pause or reproduce the voice guidance, the voice guidance unit 74 pauses or plays the voice guidance based on the instruction from the guidance method discriminating unit 72. To do.

音声案内部74によって音声による案内が行われているとき、操作案内部73は、表示部41に供給する電源をオフにしても良い。この場合において、操作部42がユーザーの操作を検知した場合、或いは、マイク43がユーザーの音声を検知した場合に、操作案内部73は、表示部41に対し、音声による案内を画像による案内に切り替える操作、音声による案内を一時停止させる操作、音声による案内を再生させる操作などを行うことが可能な画面を表示させることが好ましい。   When the voice guidance unit 74 provides guidance by voice, the operation guidance unit 73 may turn off the power supplied to the display unit 41. In this case, when the operation unit 42 detects the user's operation or when the microphone 43 detects the user's voice, the operation guide unit 73 causes the display unit 41 to convert the voice guidance into an image guidance. It is preferable to display a screen on which a switching operation, an operation for pausing voice guidance, an operation for reproducing voice guidance, and the like can be performed.

画像案内部75は、画像による案内を行う処理部であり、画像処理装置2から受信した操作情報に対応するステップの画像データ48bを読み出し、その画像データ48bに基づいて表示部41に動画像を表示させる。すなわち、画像案内部75は、画像データ48bに基づく動画再生処理をCPU40aに行わせることにより、画像に基づく案内を表示部41に表示させるのである。また画像案内部75は、案内方法判別部72から画像による案内の一時停止や再生が指示された場合には、案内方法判別部72からの指示に基づいて画像による案内を一時停止させたり、再生したりする。尚、音声案内部74によって音声による案内が行われているとき、操作案内部73は、スピーカー44を駆動しないようにしても良い。   The image guide unit 75 is a processing unit that performs image guidance. The image guide unit 75 reads the image data 48b of the step corresponding to the operation information received from the image processing apparatus 2, and displays a moving image on the display unit 41 based on the image data 48b. Display. That is, the image guiding unit 75 causes the display unit 41 to display guidance based on images by causing the CPU 40a to perform moving image reproduction processing based on the image data 48b. In addition, when the guidance method discriminating unit 72 gives an instruction to pause or reproduce the guidance based on the image, the image guiding unit 75 pauses or reproduces the guidance based on the image based on the instruction from the guidance method discriminating unit 72. To do. It should be noted that the operation guidance unit 73 may not drive the speaker 44 when the voice guidance unit 74 performs guidance by voice.

また案内方法判別部72は、操作案内部73の音声案内部74を動作させることによって音声による案内を行わせているときに画像処理装置2から誤操作情報を受信した場合、操作案内部73に対して音声による案内を画像による案内に切り替えることをユーザーに促すように指示をする。そして操作案内部73は、音声案内部74を制御し、音声による案内を画像による案内に切り替えることを促す音声をスピーカー44から出力させる。これにより、ユーザーは、手動操作で音声による案内を画像による案内に切り替えて画像による案内を視認するため、正しい操作内容を容易に把握することができるようになる。   In addition, the guidance method determination unit 72 operates the voice guidance unit 74 of the operation guidance unit 73 and operates the voice guidance unit 74 to receive erroneous operation information from the image processing apparatus 2 when performing guidance by voice. And instructing the user to switch from voice guidance to image guidance. Then, the operation guide unit 73 controls the voice guide unit 74 to output from the speaker 44 a voice prompting to switch the voice guidance to the image guidance. As a result, the user can easily understand the correct operation content because the user manually switches the voice guidance to the image guidance and visually recognizes the image guidance.

また案内方法判別部72は、操作案内部73に音声による案内を行わせている状態において、ユーザーが操作に手間取っていると判断した場合にも、操作案内部73に対して音声による案内を画像による案内に切り替えることをユーザーに促すように指示をする。ユーザーが操作に手間取っているか否かの判断は、例えば音声案内部74が音声による案内を行ってから所定時間が経過したときに、操作情報受信部71が次のステップに対応する操作情報を受信しているか否かを判断することによって行われる。そしてユーザーが操作に手間取っていると判断されると、操作案内部73は、音声案内部74を制御し、音声による案内を画像による案内に切り替えることを促す音声をスピーカー44から出力させる。これにより、ユーザーは、手動操作で音声による案内を画像による案内に切り替えて画像による案内を視認するため、エラーを解除するための正しい操作内容を速やかに把握することができるようになる。   In addition, the guidance method determination unit 72 provides voice guidance to the operation guidance unit 73 even when the operation guidance unit 73 determines that the user is troublesome in the operation. Instruct the user to switch to guidance by. For example, when a predetermined time has elapsed after the voice guidance unit 74 performs voice guidance, the operation information reception unit 71 receives the operation information corresponding to the next step. This is done by determining whether or not it is. When it is determined that the user is taking time for the operation, the operation guide unit 73 controls the voice guide unit 74 to output from the speaker 44 a sound prompting the user to switch from the voice guidance to the image guidance. As a result, the user switches the voice guidance to the image guidance manually and visually recognizes the image guidance. Therefore, the user can quickly grasp the correct operation content for canceling the error.

また案内方法判別部72は、画像処理装置2から受信した操作情報に基づいて音声による案内を行うことを決定した場合、操作案内部73に音声による案内を行わせる前に、画像による案内を行わせるようにしても良い。音声による案内は画像による案内よりも操作位置などを特定することが難しいため、音声による案内を行う前に、ユーザーに画像による案内を見せておくことでユーザーが操作位置などを特定し易くなるという利点がある。   In addition, when the guidance method determination unit 72 determines to perform guidance by voice based on the operation information received from the image processing apparatus 2, the guidance method determination unit 72 performs guidance by image before the operation guidance unit 73 performs guidance by voice. You may make it. It is difficult to specify the operation position etc. by voice guidance than the guidance by image, so it is easier for the user to specify the operation position etc. by showing the user the image guidance before giving the voice guidance. There are advantages.

さらに案内方法判別部72は、音声による案内を行っているときに、画像認識部81によってユーザーの顔画像が認識された場合、或いは、加速度判定部84によって加速度が検知された場合、そのタイミングで案内方法を音声による案内から画像による案内に切り替えるようにしても良い。   Further, the guidance method discriminating unit 72, at the timing when the user's face image is recognized by the image recognizing unit 81 or the acceleration is detected by the acceleration judging unit 84 during the voice guidance. The guidance method may be switched from voice guidance to image guidance.

次に図9は、画像処理装置2でエラーが発生した場合に画像処理装置2及び携帯端末装置3が互いに連携しながら行うプロセスの流れを示す図である。図9に示すように、画像処理装置2は、エラーを検知すると(プロセスP1)、まずエラーが発生したことを報知する(プロセスP2)これにより、画像処理装置2の近傍に居るユーザーは、画像処理装置2においてエラーが発生したことを把握することができる。そして携帯端末装置3は、ユーザーによるアプリケーションの起動指示に基づいてアプリケーションを起動させる(プロセスP3)。ただし、これに限らず、尚、携帯端末装置3は、画像処理装置2からの命令に基づいてアプリケーションを自動起動させるものであっても構わない。   Next, FIG. 9 is a diagram illustrating a flow of a process performed when the image processing apparatus 2 and the mobile terminal apparatus 3 cooperate with each other when an error occurs in the image processing apparatus 2. As shown in FIG. 9, when the image processing apparatus 2 detects an error (process P1), it first notifies that an error has occurred (process P2). As a result, a user in the vicinity of the image processing apparatus 2 It can be understood that an error has occurred in the processing device 2. And the portable terminal device 3 starts an application based on the starting instruction | indication of the application by a user (process P3). However, the present invention is not limited to this, and the mobile terminal device 3 may automatically start an application based on a command from the image processing device 2.

画像処理装置2は、エラーを報知すると、そのエラーを解除するためにユーザーが行うべき解除操作を特定する(ステップS4)。そして画像処理装置2は、その解除操作に含まれる複数のステップのうちからユーザーが最初に行うべきステップの操作情報D10を生成し(ステップS5)、その操作情報D10を携帯端末装置3へ送信する(プロセスP6)。   When the image processing apparatus 2 notifies the error, the image processing apparatus 2 specifies a canceling operation to be performed by the user in order to cancel the error (step S4). Then, the image processing device 2 generates operation information D10 of a step to be performed first by the user from among a plurality of steps included in the release operation (step S5), and transmits the operation information D10 to the mobile terminal device 3. (Process P6).

携帯端末装置3は、画像処理装置2から送信される操作情報D10を受信すると(プロセスP7)、ユーザーに対する解除操作の案内方法を判別する(プロセスP8)。このとき、携帯端末装置3は、画像処理装置2から受信した操作情報D10に対応するステップにおいてユーザーが行うべき操作が両手操作であるか否か、撮像部45によって撮影された撮影画像にユーザーの顔画像が含まれるか否か、又は、加速度センサー49によって加速度が検知されているか否かに応じて、音声による案内と画像による案内とのいずれか一方を決定する。そして携帯端末装置3は、プロセスP8における判別結果に基づき、音声による案内と画像による案内とのいずれか一方でエラーを解除するための操作を案内する(プロセスP9)。   When the portable terminal device 3 receives the operation information D10 transmitted from the image processing device 2 (process P7), the portable terminal device 3 determines a release operation guidance method for the user (process P8). At this time, the mobile terminal device 3 determines whether or not the operation to be performed by the user in the step corresponding to the operation information D10 received from the image processing device 2 is a two-handed operation. Either voice guidance or image guidance is determined according to whether a face image is included or whether acceleration is detected by the acceleration sensor 49. Then, the portable terminal device 3 guides an operation for canceling the error in either the voice guidance or the image guidance based on the determination result in the process P8 (process P9).

その後、画像処理装置2は、センサー群19から得られる情報に基づき、ユーザーが行うべき操作のステップが進行したことを検知すると(プロセスP10)、次のステップに対応する操作情報D11を生成し、その操作情報D11を携帯端末装置3へ送信する(プロセスP11)。また携帯端末装置3は、画像処理装置2から送信される次のステップの操作情報D11を受信すると(プロセスP12)、上記と同様に、ユーザーに対する解除操作の案内方法を判別し(プロセスP13)、その判別結果に基づいて、音声による案内と画像による案内とのいずれか一方でエラーを解除するための操作を案内する(プロセスP14)。以後、画像処理装置2においてエラーが解除されたと判定されるまで、同様の処理が繰り返される。   Thereafter, when the image processing apparatus 2 detects that the operation step to be performed by the user has progressed based on the information obtained from the sensor group 19 (process P10), it generates operation information D11 corresponding to the next step, The operation information D11 is transmitted to the mobile terminal device 3 (process P11). Further, when receiving the operation information D11 of the next step transmitted from the image processing apparatus 2 (process P12), the mobile terminal device 3 determines the release operation guidance method for the user (process P13) in the same manner as described above. Based on the determination result, an operation for canceling the error is guided by either voice guidance or image guidance (process P14). Thereafter, the same processing is repeated until it is determined in the image processing apparatus 2 that the error has been canceled.

次に画像処理装置2において行われる処理について説明する。図10は、画像処理装置2において行われる処理手順の一例を示すフローチャートである。この処理は、画像処理装置2においてエラーが検知されることに伴って開始される。画像処理装置2は、この処理を開始すると、まずエラーを検知したセンサーを特定する(ステップS10)。センサーを特定することができると、画像処理装置2は、エラー判別情報15を参照し(ステップS11)、ユーザーが行うべき解除操作を特定する(ステップS12)。そして画像処理装置2は、特定した解除操作に含まれる複数のステップのうちからユーザーが行うべきステップを特定し、その特定したステップに対応する操作情報を生成して携帯端末装置3へ送信する(ステップS13,S14)。   Next, processing performed in the image processing apparatus 2 will be described. FIG. 10 is a flowchart illustrating an example of a processing procedure performed in the image processing apparatus 2. This process is started when an error is detected in the image processing apparatus 2. When starting this process, the image processing apparatus 2 first identifies the sensor that detected the error (step S10). If the sensor can be specified, the image processing apparatus 2 refers to the error determination information 15 (step S11), and specifies a release operation to be performed by the user (step S12). Then, the image processing device 2 identifies a step to be performed by the user from among a plurality of steps included in the identified release operation, generates operation information corresponding to the identified step, and transmits the operation information to the mobile terminal device 3 ( Steps S13 and S14).

その後、画像処理装置2は、センサー群19に含まれる各センサーの出力を監視し、ユーザーによる操作が行われたことを検知するまで待機する(ステップS15)。ユーザーによる操作が行われたことを検知した場合(ステップS15でYES)、画像処理装置2は、センサー群19から得られる情報に基づいてユーザーによって行われた操作が正しい操作であるか否かを判別する(ステップS16)。その結果、ユーザーによって行われた操作が正しい操作ではなかった場合(ステップS16でNO)、画像処理装置2は、誤操作情報を携帯端末装置3へ送信する(ステップS17)。これに対し、ユーザーによって行われた操作が正しい操作であった場合(ステップS16でYES)、画像処理装置2は、ユーザーが行うべき解除操作に次のステップが存在するか否かを判別し(ステップS18)、次のステップが存在すれば(ステップS18でYES)、ステップS13に戻って上述した処理を繰り返す。これに対し、次のステップが存在しない場合(ステップS18でNO)、画像処理装置2は、エラーが解除されたと判断し、エラー解除通知を携帯端末装置3へ送信する(ステップS19)。以上で、画像処理装置2における処理が終了する。   Thereafter, the image processing apparatus 2 monitors the output of each sensor included in the sensor group 19 and waits until it detects that an operation by the user has been performed (step S15). When it is detected that the operation by the user has been performed (YES in step S15), the image processing apparatus 2 determines whether or not the operation performed by the user is a correct operation based on the information obtained from the sensor group 19. It discriminate | determines (step S16). As a result, when the operation performed by the user is not a correct operation (NO in step S16), the image processing device 2 transmits erroneous operation information to the mobile terminal device 3 (step S17). On the other hand, when the operation performed by the user is a correct operation (YES in step S16), the image processing apparatus 2 determines whether or not the next step exists in the release operation to be performed by the user ( If there is a next step (YES in step S18), the process returns to step S13 and the above-described processing is repeated. On the other hand, when the next step does not exist (NO in step S18), the image processing apparatus 2 determines that the error has been released, and transmits an error release notification to the mobile terminal device 3 (step S19). Thus, the processing in the image processing apparatus 2 ends.

次に携帯端末装置3において行われる処理について説明する。図11は、携帯端末装置3において行われる主たる処理手順の一例を示すフローチャートである。この処理は、携帯端末装置3において画像処理装置2と連携するアプリケーションが起動することによって開始される。携帯端末装置3は、この処理を開始すると、まず操作案内登録情報48を読み出す(ステップS20)。そして携帯端末装置3は、画像処理装置2から操作情報を受信するまで待機する状態となる(ステップS21)。   Next, processing performed in the mobile terminal device 3 will be described. FIG. 11 is a flowchart illustrating an example of a main processing procedure performed in the mobile terminal device 3. This process is started when an application that cooperates with the image processing apparatus 2 is activated in the mobile terminal device 3. When starting this process, the mobile terminal device 3 first reads the operation guidance registration information 48 (step S20). And the portable terminal device 3 will be in the state which waits until operation information is received from the image processing apparatus 2 (step S21).

画像処理装置2から操作情報を受信すると(ステップS21でYES)、携帯端末装置3は、操作案内登録情報48を参照し(ステップS22)、今回のステップでユーザーが行うべき操作が両手で行うことが必要な操作であるか否かを判断する(ステップS23)。その結果、片手で行うことが可能な操作である場合(ステップS23でNO)、携帯端末装置3は、案内方法として、画像による案内を決定する。これに対し、両手で行うことが必要な操作である場合(ステップS23でYES)、携帯端末装置3は、撮像部45を駆動し(ステップS24)、撮影画像を取得する(ステップS25)。そして携帯端末装置3は、撮影画像にユーザーの顔画像が含まれているか否かを判断し(ステップS26)、ユーザーの顔画像が含まれていなければ(ステップS26でNO)、更に加速度センサー49が加速度を検知中であるか否かを判断する(ステップS27)。そして加速度センサー49が加速度を検知していない場合(ステップS27でNO)、携帯端末装置3は、案内方法として、音声による案内を決定する。尚、撮影画像にユーザーの顔画像が含まれている場合(ステップS26でYES)、或いは、加速度センサー49が加速度を検知中である場合(ステップS27でYES)、携帯端末装置3は、案内方法として、画像による案内を決定する。   When the operation information is received from the image processing device 2 (YES in step S21), the mobile terminal device 3 refers to the operation guide registration information 48 (step S22), and the operation to be performed by the user in this step is performed with both hands. Is determined whether or not the operation is necessary (step S23). As a result, when the operation can be performed with one hand (NO in step S23), the mobile terminal device 3 determines the guidance based on the image as the guidance method. On the other hand, if the operation needs to be performed with both hands (YES in step S23), the mobile terminal device 3 drives the imaging unit 45 (step S24) and acquires a captured image (step S25). Then, the mobile terminal device 3 determines whether or not the user's face image is included in the captured image (step S26). If the user's face image is not included (NO in step S26), the acceleration sensor 49 is further included. It is determined whether or not acceleration is being detected (step S27). And when the acceleration sensor 49 is not detecting acceleration (it is NO at step S27), the portable terminal device 3 determines the guidance by an audio | voice as a guidance method. Note that if the captured image includes a user's face image (YES in step S26) or if the acceleration sensor 49 is detecting acceleration (YES in step S27), the mobile terminal device 3 uses the guidance method. As a guide, an image guidance is determined.

携帯端末装置3は、音声による案内を決定した場合、今回のステップに対応する音声データ48cを読み出し(ステップS28)、その音声データ48cに基づく再生処理を開始することにより音声による案内を開始する(ステップS29)。そして携帯端末装置3は、音声による案内を開始することに伴い、時間計測を開始する(ステップS30)。   When the portable terminal device 3 determines the voice guidance, the portable terminal device 3 reads the voice data 48c corresponding to the current step (step S28), and starts the voice guidance by starting the reproduction process based on the voice data 48c (step S28). Step S29). And the portable terminal device 3 starts time measurement with starting voice guidance (step S30).

また携帯端末装置3は、画像による案内を決定した場合、今回のステップに対応する画像データ48bを読み出し(ステップS31)、その画像データ48bに基づく動画再生処理を開始することにより画像による案内を開始する(ステップS32)。   Further, when the mobile terminal device 3 determines the guidance by the image, the mobile terminal device 3 reads the image data 48b corresponding to the current step (step S31), and starts the moving image reproduction process based on the image data 48b, thereby starting the guidance by the image. (Step S32).

携帯端末装置3は、音声又は画像による案内を開始すると、操作案内処理を行う(ステップS33)。図12は、この操作案内処理(ステップS33)の詳細な処理手順の一例を示すフローチャートである。携帯端末装置3は、図12に示す処理を開始すると、まず音声による案内を実行中であるか否かを判断する(ステップS40)。尚、ここでは、音声による案内が行われた後、次のステップに進んでいない状態であっても、YESと判断される。音声による案内が行われている場合(ステップS40でYES)、携帯端末装置3は、ステップS30で計測を開始した時間が所定時間を経過したか否かを判断し(ステップS41)、所定時間を経過していれば(ステップS41でYES)、ユーザーに対し、音声による案内を画像による案内に切り替えることを促す処理を行う(ステップS42)。ここで、所定時間は、例えば3〜5分程度の時間であり、ユーザーが解除操作に手間取っていると判断するのに十分な時間が予め設定される。これに対し、音声による案内が行われていない場合(ステップS40でNO)、又は、所定時間が経過していない場合(ステップS41でNO)、ステップS42の処理は行われずにスキップする。   The portable terminal device 3 performs operation guidance processing when guidance by voice or image is started (step S33). FIG. 12 is a flowchart showing an example of a detailed processing procedure of the operation guidance process (step S33). When the mobile terminal device 3 starts the process shown in FIG. 12, it first determines whether or not voice guidance is being executed (step S40). Note that, here, it is determined as YES even if the next step is not performed after the voice guidance is performed. When the guidance by voice is performed (YES in step S40), the mobile terminal device 3 determines whether or not the time when the measurement is started in step S30 has passed the predetermined time (step S41), and the predetermined time is set. If it has elapsed (YES in step S41), a process of prompting the user to switch from voice guidance to image guidance is performed (step S42). Here, the predetermined time is, for example, about 3 to 5 minutes, and is set in advance enough to determine that the user is taking time for the release operation. On the other hand, when the guidance by voice is not performed (NO in step S40), or when the predetermined time has not elapsed (NO in step S41), the process of step S42 is skipped without being performed.

次に携帯端末装置3は、画像処理装置2から誤操作情報を受信したか否かを判断する(ステップS43)。誤操作情報を受信した場合(ステップS43でYES)、携帯端末装置3は、ユーザーに対して誤操作を報知する(ステップS44)。この報知は、例えば携帯端末装置3のスピーカー44から警告音を発生させることにより行われる。そして携帯端末装置3は、ステップS40と同様に音声による案内を行っているか否かを判断し(ステップS45)、音声による案内が行われていれば(ステップS45でYES)、ユーザーに対し、音声による案内を画像による案内に切り替えることを促す処理を行う(ステップS46)。また音声による案内が行われておらず、画像による案内が行われている場合(ステップS45でNO)、携帯端末装置3は、再び画像による案内をはじめから再生する(ステップS47)。これにより、ユーザーは、画像による案内を確認しながら、正しい操作を行うことができるようになる。尚、誤操作情報を受信していない場合(ステップS43でNO)、ステップS44〜S47の処理は行われずにスキップする。   Next, the mobile terminal device 3 determines whether or not erroneous operation information has been received from the image processing device 2 (step S43). When the erroneous operation information is received (YES in step S43), the mobile terminal device 3 notifies the user of the erroneous operation (step S44). This notification is performed, for example, by generating a warning sound from the speaker 44 of the mobile terminal device 3. Then, the mobile terminal device 3 determines whether or not voice guidance is performed in the same manner as in step S40 (step S45). If voice guidance is performed (YES in step S45), the mobile terminal device 3 prompts the user for voice. A process for prompting the user to switch from the guidance to the guidance based on the image is performed (step S46). Further, when the guidance by voice is not performed and the guidance by image is performed (NO in step S45), the mobile terminal device 3 reproduces the guidance by image again from the beginning (step S47). As a result, the user can perform a correct operation while confirming the guidance based on the image. If erroneous operation information has not been received (NO in step S43), steps S44 to S47 are skipped without being performed.

次に携帯端末装置3は、ユーザーの手動又は音声による指示を検知したか否かを判断する(ステップS48)。ユーザーの指示を検知した場合(ステップS48でYES)、携帯端末装置3は、ユーザーの指示が一時停止であるか否かを判断し(ステップS49)、一時停止であれば(ステップS49でYES)、音声又は画像による案内の一時停止処理を行う(ステップS50)。またユーザーの指示が一時停止でなかった場合(ステップS49でNO)、音声又は画像による案内の再生指示であるか否かを判断し(ステップS51)、再生指示であれば(ステップS51でYES)、音声又は画像による案内の再生処理を行う(ステップS52)。さらにユーザーの指示が再生指示でもなかった場合(ステップS51でNO)、案内方法の切り替え指示であるか否かを判断し(ステップS53)、案内方法の切り替え指示であれば(ステップS53でYES)、案内方法切り替え処理を行う(ステップS54)。この案内方法切り替え処理では、携帯端末装置3は、音声による案内を画像による案内に切り替える処理を行ったり、また画像による案内を音声による案内に切り替える処理を行ったりする。つまり、ユーザーは、自身の操作で案内方法の切り替えを行うこともできるのである。尚、ユーザーの指示が案内方法の切り替え指示でもなかった場合(ステップS53でNO)、ステップS54の処理は行われずにスキップする。この場合、その他のユーザーの指示に応じた処理を行うようにしても良い。またユーザーの手動又は音声による指示を検知していない場合(ステップS48でNO)も、上述した各処理をスキップする。以上で、操作案内処理(ステップS33)が終了する。   Next, the portable terminal device 3 determines whether or not a user's manual or voice instruction is detected (step S48). When a user instruction is detected (YES in step S48), the mobile terminal device 3 determines whether or not the user instruction is a pause (step S49), and if it is a pause (YES in step S49). Then, the voice or image guidance pause processing is performed (step S50). If the user's instruction is not a pause (NO in step S49), it is determined whether the instruction is a voice or image guidance reproduction instruction (step S51), and if it is a reproduction instruction (YES in step S51). Then, reproduction processing of guidance by voice or image is performed (step S52). Further, if the user instruction is not a reproduction instruction (NO in step S51), it is determined whether or not it is a guidance method switching instruction (step S53), and if it is a guidance method switching instruction (YES in step S53). Then, a guidance method switching process is performed (step S54). In this guidance method switching processing, the mobile terminal device 3 performs processing for switching voice guidance to image guidance, or performs processing for switching image guidance to voice guidance. That is, the user can also switch the guidance method by his / her own operation. If the user's instruction is not a guidance method switching instruction (NO in step S53), the process skips without performing the process of step S54. In this case, processing according to other user instructions may be performed. Also, when the user's manual or voice instruction is not detected (NO in step S48), the above-described processes are skipped. This is the end of the operation guidance process (step S33).

図11のフローチャートに戻り、携帯端末装置3は、操作案内処理(ステップS33)を行った後、画像処理装置2からエラー解除通知を受信したか否かを判断する(ステップS34)。エラー解除通知を受信していない場合には(ステップS34でNO)、更に次のステップに対応する操作情報を受信したか否かを判断する(ステップS35)。そして次のステップに対応する操作情報を受信していない場合(ステップS35でNO)、携帯端末装置3による処理はステップS33に戻り、上述した処理を繰り返す。また次のステップに対応する操作情報を受信した場合(ステップS35でYES)、携帯端末装置3による処理はステップS22に戻り、上述した処理を繰り返す。さらに画像処理装置2からエラー通知を受信した場合(ステップS34でYES)、携帯端末装置3において起動しているアプリケーションによる処理は終了する。   Returning to the flowchart of FIG. 11, the mobile terminal device 3 performs the operation guidance processing (step S33), and then determines whether or not an error cancellation notification is received from the image processing device 2 (step S34). If no error release notification has been received (NO in step S34), it is further determined whether or not operation information corresponding to the next step has been received (step S35). If the operation information corresponding to the next step has not been received (NO in step S35), the process by the mobile terminal device 3 returns to step S33, and the above-described process is repeated. When the operation information corresponding to the next step is received (YES in step S35), the process by the mobile terminal device 3 returns to step S22, and the above-described process is repeated. Further, when an error notification is received from the image processing device 2 (YES in step S34), the processing by the application running on the mobile terminal device 3 ends.

上述したように本実施形態の携帯端末装置3は、画像処理装置2においてエラーが発生した場合に、画像処理装置2から送信される操作情報を受信し、その操作情報に基づいて、エラーを解除するためにユーザーが行うべき操作を音声又は画像で案内する構成である。そして携帯端末装置3は、ユーザーが行うべき操作の種類、又は、ユーザーによる携帯端末装置3の保持状態に応じて、音声による案内と画像による案内とを切り替えるように構成されている。したがって、本実施形態の携帯端末装置3は、従来のように音声と画像との双方でユーザーが行うべき操作を案内するものではなく、ユーザーが行うべき操作の種類やユーザーの保持状態などに応じて音声による案内と画像による案内とを択一的に切り替えることが可能であり、CPU40aに同時にかかる負荷を低減することができ、携帯端末装置3の電力消費量を低く抑えることができるようになる。   As described above, when an error occurs in the image processing device 2, the mobile terminal device 3 according to the present embodiment receives operation information transmitted from the image processing device 2 and cancels the error based on the operation information. The operation to be performed by the user in order to do so is guided by voice or image. The mobile terminal device 3 is configured to switch between voice guidance and image guidance according to the type of operation to be performed by the user or the holding state of the mobile terminal device 3 by the user. Therefore, the mobile terminal device 3 according to the present embodiment does not guide the operation to be performed by the user with both sound and image as in the conventional case, and depends on the type of operation to be performed by the user, the holding state of the user, and the like. Thus, it is possible to selectively switch between voice guidance and image guidance, the load on the CPU 40a can be reduced at the same time, and the power consumption of the mobile terminal device 3 can be kept low. .

以上、本発明に関する一実施形態について説明したが、本発明は、上記実施形態において説明した内容のものに限られるものではなく、種々の変形例が適用可能である。   Although one embodiment related to the present invention has been described above, the present invention is not limited to the contents described in the above embodiment, and various modifications can be applied.

例えば上記実施形態において説明した画像処理装置2のエラーは、単なる一例である。したがって、画像処理装置2において発生するエラーには、上述したエラー以外のものが含まれていても構わない。   For example, the error of the image processing apparatus 2 described in the above embodiment is merely an example. Therefore, errors that occur in the image processing apparatus 2 may include errors other than those described above.

また上記実施形態では、携帯端末装置3において、ユーザーが行うべき操作が、両手で行う必要のある操作であるか、又は、片手で行うことが可能な操作であるかを判別する処理を行う場合を例示した。しかし、この判別処理は、画像処理装置2で行うようにしても良い。すなわち、画像処理装置2は、エラーを解除するためにユーザーが行うべき操作が、両手で行う必要のある操作であるか、又は、片手で行うことが可能な操作であるかを判別する判別手段を備えており、その判別手段による判別結果を操作情報と共に携帯端末装置3へ送信するように構成すれば良い。このような構成すれば、携帯端末装置3においてユーザーが行うべき操作が、両手で行う必要のある操作であるか、又は、片手で行うことが可能な操作であるかを判別する処理を行う必要がなくなるという利点がある。   Moreover, in the said embodiment, in the portable terminal device 3, when performing the process which discriminate | determines whether operation which a user should perform is operation which needs to be performed with both hands, or operation which can be performed with one hand Was illustrated. However, this determination process may be performed by the image processing apparatus 2. In other words, the image processing apparatus 2 determines whether the operation to be performed by the user to cancel the error is an operation that needs to be performed with both hands or an operation that can be performed with one hand. The determination result by the determination means may be transmitted to the mobile terminal device 3 together with the operation information. With such a configuration, it is necessary to perform processing for determining whether the operation to be performed by the user in the mobile terminal device 3 is an operation that needs to be performed with both hands or an operation that can be performed with one hand. There is an advantage that there is no.

また上記実施形態では、携帯端末装置3がユーザーによって占有的に所持されるスマートフォンやタブレット端末、パーソナルコンピュータなどで構成される場合を例示した。しかし、携帯端末装置3は、必ずしもユーザーによって占有的に所持される装置でなくても構わない。例えば、画像処理装置2の操作パネル11が、画像処理装置2の装置本体に対して着脱可能な場合には、画像処理装置2の装置本体から取り外した操作パネル11が上述した携帯端末装置3として機能するものであっても構わない。   Moreover, in the said embodiment, the case where the portable terminal device 3 was comprised with the smart phone, tablet terminal, personal computer, etc. which are possessed exclusively by the user was illustrated. However, the mobile terminal device 3 does not necessarily have to be a device possessed exclusively by the user. For example, when the operation panel 11 of the image processing apparatus 2 is detachable from the apparatus main body of the image processing apparatus 2, the operation panel 11 removed from the apparatus main body of the image processing apparatus 2 is the mobile terminal device 3 described above. It may be functional.

1 画像処理システム
2 画像処理装置
3 携帯端末装置
45 撮像部(撮像手段)
49 加速度センサー
61 エラー検知部(エラー検知手段)
62 操作情報生成部(操作情報生成手段)
63 操作判別部(操作判別手段)
64 操作情報送信部(操作情報送信手段)
71 操作情報受信部(操作情報受信手段)
72 案内方法判別部(判別手段)
73 操作案内部(案内手段)
81 画像認識部(画像認識手段)
DESCRIPTION OF SYMBOLS 1 Image processing system 2 Image processing apparatus 3 Portable terminal device 45 Imaging part (imaging means)
49 Acceleration sensor 61 Error detection unit (error detection means)
62 Operation information generation unit (operation information generation means)
63 Operation discrimination unit (operation discrimination means)
64 Operation information transmission unit (operation information transmission means)
71 Operation information receiving unit (operation information receiving means)
72 Guidance method discriminating section (discriminating means)
73 Operation Guide (Guide means)
81 Image recognition unit (image recognition means)

Claims (32)

画像処理装置と携帯端末装置とが近距離通信を行うことが可能な画像処理システムであって、
前記画像処理装置は、
前記画像処理装置においてエラーが発生したことを検知するエラー検知手段と、
前記異常検知手段によって検知されるエラーを解除するためにユーザーが行うべき操作を特定し、該操作に関する操作情報を生成する操作情報生成手段と、
前記操作情報生成手段によって生成される操作情報を前記携帯端末装置へ送信する操作情報送信手段と、
を備え、
前記携帯端末装置は、
前記操作情報送信手段によって送信される操作情報を受信する操作情報受信手段と、
前記操作情報受信手段によって受信された操作情報に基づき、ユーザーが行うべき操作を音声又は画像で案内する案内手段と、
を備え、
前記案内手段は、ユーザーが行うべき操作の種類、又は、ユーザーによる前記携帯端末装置の保持状態に応じて、音声による案内と画像による案内とを切り替えることを特徴とする画像処理システム。
An image processing system capable of short-range communication between an image processing device and a mobile terminal device,
The image processing apparatus includes:
Error detecting means for detecting that an error has occurred in the image processing apparatus;
An operation information generating means for specifying an operation to be performed by the user in order to cancel an error detected by the abnormality detecting means, and generating operation information related to the operation;
Operation information transmitting means for transmitting operation information generated by the operation information generating means to the portable terminal device;
With
The portable terminal device
Operation information receiving means for receiving operation information transmitted by the operation information transmitting means;
Based on the operation information received by the operation information receiving means, guidance means for guiding the operation to be performed by the user by voice or image;
With
The image processing system characterized in that the guidance means switches between voice guidance and image guidance according to the type of operation to be performed by the user or the holding state of the mobile terminal device by the user.
前記案内手段は、ユーザーが行うべき操作が両手で行う必要のある操作である場合に音声による案内を行い、ユーザーが行うべき操作が片手で行うことが可能な操作である場合に画像による案内を行うことを特徴とする請求項1に記載の画像処理システム。   The guidance means performs guidance by voice when the operation to be performed by the user is an operation that needs to be performed with both hands, and guides by image when the operation to be performed by the user is an operation that can be performed with one hand. The image processing system according to claim 1, wherein the image processing system is performed. 前記画像処理装置は、前記操作情報生成手段によって特定されるユーザーが行うべき操作が、両手で行う必要のある操作であるか、又は、片手で行うことが可能な操作であるかを判別する判別手段を更に備え、
前記案内手段は、前記判別手段による判別結果に基づいて音声による案内と画像による案内とを切り替えることを特徴とする請求項2に記載の画像処理システム。
The image processing apparatus determines whether an operation to be performed by a user specified by the operation information generation unit is an operation that needs to be performed with both hands or an operation that can be performed with one hand Further comprising means,
The image processing system according to claim 2, wherein the guidance unit switches between voice guidance and image guidance based on a determination result by the determination unit.
前記携帯端末装置は、前記操作情報を解析することによってユーザーが行うべき操作が両手で行う必要のある操作であるか、又は、片手で行うことが可能な操作であるかを判別する判別手段を更に備え、
前記案内手段は、前記判別手段による判別結果に基づいて音声による案内と画像による案内とを切り替えることを特徴とする請求項2に記載の画像処理システム。
The mobile terminal device includes a determination unit that determines whether the operation to be performed by the user is an operation that needs to be performed with both hands or an operation that can be performed with one hand by analyzing the operation information. In addition,
The image processing system according to claim 2, wherein the guidance unit switches between voice guidance and image guidance based on a determination result by the determination unit.
前記操作情報生成手段は、ユーザーが行うべき操作として、複数のステップを1つずつ順に行っていく操作を特定し、
前記判別手段は、ステップごとに、両手で行う必要のある操作であるか、又は、片手で行うことが可能な操作であるかを判別し、
前記案内手段は、前記判別手段によるステップごとの判別結果に基づいて音声による案内と画像による案内とをステップごとに切り替えることを特徴とする請求項3又は4に記載の画像処理システム。
The operation information generation means specifies an operation for sequentially performing a plurality of steps one by one as an operation to be performed by the user,
The determination means determines, for each step, whether the operation needs to be performed with both hands or can be performed with one hand,
5. The image processing system according to claim 3, wherein the guidance unit switches between voice guidance and image guidance for each step based on a determination result for each step by the determination unit.
前記案内手段は、次のステップの操作が音声による案内を行う操作である場合、音声による案内を行う前に、画像による案内を行うことを特徴とする請求項5に記載の画像処理システム。   6. The image processing system according to claim 5, wherein when the next step operation is an operation for performing guidance by voice, the guidance means performs guidance by image before performing guidance by voice. 前記操作情報生成手段は、ユーザーの操作によってステップが1つ進行する度に、次のステップに対応する操作情報を生成し、
前記操作情報送信手段は、前記操作情報生成手段によって生成されるステップごとの操作情報を順に前記携帯端末装置へ送信し、
前記案内手段は、音声による案内を行ってから所定時間を経過したときに、前記操作情報受信手段が次のステップに対応する操作情報を受信していない場合、音声による案内を画像による案内に切り替えることをユーザーに促すことを特徴とする請求項5又は6に記載の画像処理システム。
The operation information generating means generates operation information corresponding to the next step each time one step is advanced by a user operation,
The operation information transmission means sequentially transmits operation information for each step generated by the operation information generation means to the portable terminal device,
The guidance means switches the voice guidance to the image guidance if the operation information receiving means has not received the operation information corresponding to the next step when a predetermined time has elapsed after the voice guidance. The image processing system according to claim 5, wherein the user is prompted to do so.
前記判別手段は、ユーザーが行うべき操作がレバーを操作しながら紙を取り出す操作である場合に両手で行う必要のある操作であると判別することを特徴とする請求項3乃至7のいずれかに記載の画像処理システム。   The determination unit determines that the operation to be performed by the user is an operation that needs to be performed with both hands when the operation is to take out the paper while operating the lever. The image processing system described. 前記判別手段は、ユーザーが行うべき操作がローラーを手動回転させながら紙を取り出す操作である場合に両手で行う必要のある操作であると判別することを特徴とする請求項3乃至8のいずれかに記載の画像処理システム。   9. The determination unit according to claim 3, wherein the determination unit determines that the operation to be performed by the user is an operation that needs to be performed with both hands when the operation is to take out the paper while manually rotating the roller. The image processing system described in 1. 前記判別手段は、ユーザーが行うべき操作が所定サイズ以上の用紙を補給する操作である場合に両手で行う必要のある操作であると判別することを特徴とする請求項3乃至9のいずれかに記載の画像処理システム。   10. The determination unit according to claim 3, wherein the determination unit determines that the operation to be performed by the user is an operation that needs to be performed with both hands when the operation is to replenish paper of a predetermined size or more. The image processing system described. 前記携帯端末装置は、
画像を撮影する撮像手段と、
前記撮像手段によって撮影された画像からユーザーの顔画像を認識する画像認識手段と、
を更に備え、
前記案内手段は、前記画像認識手段によってユーザーの顔画像が認識されている場合に画像による案内を行い、前記画像認識手段によってユーザーの顔画像が認識されていない場合に音声による案内を行うことを特徴とする請求項1乃至10のいずれかに記載の画像処理システム。
The portable terminal device
Imaging means for taking an image;
Image recognition means for recognizing a user's face image from an image taken by the imaging means;
Further comprising
The guide means performs guidance by an image when a user's face image is recognized by the image recognition means, and performs voice guidance when the user's face image is not recognized by the image recognition means. The image processing system according to claim 1, wherein the image processing system is characterized in that:
前記携帯端末装置は、
前記携帯端末装置に作用する加速度を検知する加速度センサー、
を更に備え、
前記案内手段は、前記加速度センサーによって加速度が検知されている場合に画像による案内を行い、前記加速度センサーによって加速度が検知されていない場合に音声による案内を行うことを特徴とする請求項1乃至11のいずれかに記載の画像処理システム。
The portable terminal device
An acceleration sensor for detecting an acceleration acting on the portable terminal device;
Further comprising
12. The guidance device according to claim 1, wherein guidance is provided by an image when acceleration is detected by the acceleration sensor, and voice guidance is performed when acceleration is not detected by the acceleration sensor. An image processing system according to any one of the above.
前記画像処理装置は、
ユーザーによって行われる操作がエラーを解除するための正しい操作であるか否かを判別する操作判別手段、
を更に備え、
前記案内手段は、音声による案内を行っている状態において前記操作判別手段によってユーザーの操作が誤った操作であると判別された場合、音声による案内を画像による案内に切り替えることをユーザーに促すことを特徴とする請求項1乃至12のいずれかに記載の画像処理システム。
The image processing apparatus includes:
Operation discriminating means for discriminating whether or not the operation performed by the user is a correct operation for canceling the error;
Further comprising
The guidance means prompts the user to switch the voice guidance to the image guidance when the operation discrimination means determines that the user's operation is an incorrect operation in a state where the voice guidance is being performed. The image processing system according to claim 1, wherein the image processing system is characterized in that:
前記携帯端末装置は、
ユーザーの操作を検知する操作検知手段、
を更に備え、
前記案内手段は、音声による案内を行っているとき、前記操作検知手段によって検知されるユーザーの操作に応じて音声による案内を画像による案内に切り替えることを特徴とする請求項1乃至13のいずれかに記載の画像処理システム。
The portable terminal device
Operation detection means for detecting user operations,
Further comprising
14. The guidance means switches voice guidance to image guidance according to a user operation detected by the operation detection means when performing voice guidance. The image processing system described in 1.
前記案内手段は、音声による案内を行っているとき、前記操作検知手段によって検知されるユーザーの操作に応じて音声による案内を再生又は一時停止させることが可能であることを特徴とする請求項14に記載の画像処理システム。   15. The guidance unit is capable of reproducing or pausing voice guidance according to a user operation detected by the operation detection unit when performing guidance by voice. The image processing system described in 1. 画像処理装置と近距離通信を行うことが可能な携帯端末装置であって、
前記画像処理装置のエラーを解除するためにユーザーが行うべき操作に関する操作情報を、前記画像処理装置から受信する操作情報受信手段と、
前記操作情報受信手段によって受信された操作情報に基づき、ユーザーが行うべき操作を音声又は画像で案内する案内手段と、
を備え、
前記案内手段は、ユーザーが行うべき操作の種類、又は、ユーザーによる前記携帯端末装置の保持状態に応じて、音声による案内と画像による案内とを切り替えることを特徴とする携帯端末装置。
A portable terminal device capable of short-range communication with an image processing device,
Operation information receiving means for receiving, from the image processing device, operation information related to an operation to be performed by a user in order to cancel an error of the image processing device;
Based on the operation information received by the operation information receiving means, guidance means for guiding the operation to be performed by the user by voice or image;
With
The portable terminal device characterized in that the guidance means switches between voice guidance and image guidance according to the type of operation to be performed by the user or the holding state of the portable terminal device by the user.
前記案内手段は、ユーザーが行うべき操作が両手で行う必要のある操作である場合に音声による案内を行い、ユーザーが行うべき操作が片手で行うことが可能な操作である場合に画像による案内を行うことを特徴とする請求項16に記載の携帯端末装置。   The guidance means performs guidance by voice when the operation to be performed by the user is an operation that needs to be performed with both hands, and guides by image when the operation to be performed by the user is an operation that can be performed with one hand. The mobile terminal device according to claim 16, wherein the mobile terminal device is performed. 前記案内手段は、ユーザーが行うべき操作に複数のステップが含まれる場合、ステップごとに、音声による案内と画像による案内とを切り替えることを特徴とする請求項16又は17に記載の携帯端末装置。   The portable terminal device according to claim 16 or 17, wherein, when the operation to be performed by the user includes a plurality of steps, the guidance unit switches between voice guidance and image guidance for each step. 前記案内手段は、次のステップの操作が音声による案内を行う操作である場合、音声による案内を行う前に、画像による案内を行うことを特徴とする請求項18に記載の携帯端末装置。   19. The portable terminal device according to claim 18, wherein when the next step operation is an audio guidance operation, the guidance means performs an image guidance before performing the voice guidance. 前記案内手段は、音声による案内を行ってから所定時間を経過したときに、前記操作情報受信手段が次のステップに対応する操作情報を受信していない場合、音声による案内を画像による案内に切り替えることをユーザーに促すことを特徴とする請求項18又は19に記載の携帯端末装置。   The guidance means switches the voice guidance to the image guidance if the operation information receiving means has not received the operation information corresponding to the next step when a predetermined time has elapsed after the voice guidance. 20. The portable terminal device according to claim 18, wherein the user is prompted to do so. 前記案内手段は、ユーザーが行うべき操作がレバーを操作しながら紙を取り出す操作である場合に音声による案内を行うことを特徴とする請求項16乃至20のいずれかに記載の携帯端末装置。   The portable terminal device according to any one of claims 16 to 20, wherein the guide means performs voice guidance when an operation to be performed by the user is an operation of taking out paper while operating a lever. 前記案内手段は、ユーザーが行うべき操作がローラーを手動回転させながら紙を取り出す操作である場合に音声による案内を行うことを特徴とする請求項16乃至21のいずれかに記載の携帯端末装置。   The portable terminal device according to any one of claims 16 to 21, wherein the guide means performs voice guidance when an operation to be performed by a user is an operation of taking out paper while manually rotating a roller. 前記案内手段は、ユーザーが行うべき操作が所定サイズ以上の用紙を補給する操作である場合に音声による案内を行うことを特徴とする請求項16乃至22のいずれかに記載の携帯端末装置。   The portable terminal device according to any one of claims 16 to 22, wherein the guidance unit performs voice guidance when an operation to be performed by the user is an operation of supplying paper of a predetermined size or more. 画像を撮影する撮像手段と、
前記撮像手段によって撮影された画像からユーザーの顔画像を認識する画像認識手段と、
を更に備え、
前記案内手段は、前記画像認識手段によってユーザーの顔画像が認識されている場合に画像による案内を行い、前記画像認識手段によってユーザーの顔画像が認識されていない場合に音声による案内を行うことを特徴とする請求項16乃至23のいずれかに記載の携帯端末装置。
Imaging means for taking an image;
Image recognition means for recognizing a user's face image from an image taken by the imaging means;
Further comprising
The guide means performs guidance by an image when a user's face image is recognized by the image recognition means, and performs voice guidance when the user's face image is not recognized by the image recognition means. The portable terminal device according to any one of claims 16 to 23, wherein
前記携帯端末装置に作用する加速度を検知する加速度センサー、
を更に備え、
前記案内手段は、前記加速度センサーによって加速度が検知されている場合に画像による案内を行い、前記加速度センサーによって加速度が検知されていない場合に音声による案内を行うことを特徴とする請求項16乃至24のいずれかに記載の携帯端末装置。
An acceleration sensor for detecting an acceleration acting on the portable terminal device;
Further comprising
25. The guidance unit performs guidance by image when acceleration is detected by the acceleration sensor, and performs guidance by voice when acceleration is not detected by the acceleration sensor. The mobile terminal device according to any one of the above.
前記案内手段は、音声による案内を行っているときに前記画像処理装置においてユーザーの操作が誤った操作であると判別された場合、音声による案内を画像による案内に切り替えることをユーザーに促すことを特徴とする請求項16乃至25のいずれかに記載の携帯端末装置。   The guidance means prompts the user to switch the voice guidance to the image guidance when it is determined that the user's operation is an incorrect operation in the image processing apparatus during voice guidance. The mobile terminal device according to any one of claims 16 to 25, characterized in that: ユーザーの操作を検知する操作検知手段、
を更に備え、
前記案内手段は、音声による案内を行っているとき、前記操作検知手段によって検知されるユーザーの操作に応じて音声による案内を画像による案内に切り替えることを特徴とする請求項16乃至26のいずれかに記載の携帯端末装置。
Operation detection means for detecting user operations,
Further comprising
27. The guidance means switches voice guidance to image guidance according to a user operation detected by the operation detection means when performing guidance by voice. The mobile terminal device according to 1.
前記案内手段は、音声による案内を行っているとき、前記操作検知手段によって検知されるユーザーの操作に応じて音声による案内を再生又は一時停止させることが可能であることを特徴とする請求項27に記載の携帯端末装置。   28. The guidance means is capable of reproducing or pausing voice guidance according to a user operation detected by the operation detection means when performing guidance by voice. The mobile terminal device according to 1. 画像処理装置と近距離通信を行うことが可能な携帯端末装置において実行されるプログラムであって、前記携帯端末装置に、
前記画像処理装置のエラーを解除するためにユーザーが行うべき操作に関する操作情報を、前記画像処理装置から受信する第1のステップと、
前記第1のステップにおいて受信された操作情報に基づき、ユーザーが行うべき操作を音声又は画像で案内する第2のステップと、
を実行させ、
前記第2のステップは、ユーザーが行うべき操作の種類、又は、ユーザーによる前記携帯端末装置の保持状態に応じて、音声による案内と画像による案内とを切り替えることを特徴とするプログラム。
A program executed in a portable terminal device capable of performing short-range communication with an image processing device, the portable terminal device,
A first step of receiving, from the image processing device, operation information relating to an operation to be performed by a user in order to cancel an error of the image processing device;
Based on the operation information received in the first step, a second step of guiding the operation to be performed by the user by voice or image;
And execute
The program in which the second step switches between voice guidance and image guidance according to the type of operation to be performed by the user or the holding state of the mobile terminal device by the user.
前記第2のステップは、ユーザーが行うべき操作が両手で行う必要のある操作である場合に音声による案内を行い、ユーザーが行うべき操作が片手で行うことが可能な操作である場合に画像による案内を行うことを特徴とする請求項29に記載のプログラム。   The second step performs guidance by voice when an operation to be performed by the user is an operation that needs to be performed with both hands, and uses an image when the operation to be performed by the user is an operation that can be performed with one hand. The program according to claim 29, wherein guidance is provided. 前記携帯端末装置は、画像を撮影する撮像手段を備え、
前記プログラムは、前記携帯端末装置に、
前記撮像手段によって撮影された画像からユーザーの顔画像を認識する第3のステップ、
を更に実行させ、
前記第2のステップは、前記第3のステップにおいてユーザーの顔画像が認識されている場合に画像による案内を行い、前記第3のステップにおいてユーザーの顔画像が認識されていない場合に音声による案内を行うことを特徴とする請求項29又は30に記載のプログラム。
The portable terminal device includes an imaging unit that captures an image,
The program is stored in the mobile terminal device.
A third step of recognizing a user's face image from an image photographed by the imaging means;
Is executed further,
The second step provides guidance by image when the user's face image is recognized in the third step, and voice guidance when the user's face image is not recognized in the third step. The program according to claim 29 or 30, wherein:
前記携帯端末装置は、前記携帯端末装置に作用する加速度を検知する加速度センサーを備え、
前記第2のステップは、前記加速度センサーによって加速度が検知されている場合に画像による案内を行い、前記加速度センサーによって加速度が検知されていない場合に音声による案内を行うことを特徴とする請求項29乃至31のいずれかに記載のプログラム。
The mobile terminal device includes an acceleration sensor that detects acceleration acting on the mobile terminal device,
30. The second step includes performing guidance by image when acceleration is detected by the acceleration sensor, and performing guidance by voice when acceleration is not detected by the acceleration sensor. 32. The program according to any one of thru 31.
JP2016216872A 2016-11-07 2016-11-07 Image processing systems, mobile terminal devices and programs Active JP6855757B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016216872A JP6855757B2 (en) 2016-11-07 2016-11-07 Image processing systems, mobile terminal devices and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016216872A JP6855757B2 (en) 2016-11-07 2016-11-07 Image processing systems, mobile terminal devices and programs

Publications (2)

Publication Number Publication Date
JP2018078354A true JP2018078354A (en) 2018-05-17
JP6855757B2 JP6855757B2 (en) 2021-04-07

Family

ID=62149249

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016216872A Active JP6855757B2 (en) 2016-11-07 2016-11-07 Image processing systems, mobile terminal devices and programs

Country Status (1)

Country Link
JP (1) JP6855757B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020182099A (en) * 2019-04-25 2020-11-05 コニカミノルタ株式会社 Information process system and program

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007086944A (en) * 2005-09-21 2007-04-05 Brother Ind Ltd Operation procedure guide system, operation procedure guide server and operation procedure guide terminal

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007086944A (en) * 2005-09-21 2007-04-05 Brother Ind Ltd Operation procedure guide system, operation procedure guide server and operation procedure guide terminal

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020182099A (en) * 2019-04-25 2020-11-05 コニカミノルタ株式会社 Information process system and program
JP7334459B2 (en) 2019-04-25 2023-08-29 コニカミノルタ株式会社 Information processing system and program

Also Published As

Publication number Publication date
JP6855757B2 (en) 2021-04-07

Similar Documents

Publication Publication Date Title
US9146489B2 (en) Image forming apparatus, method of controlling the same and storage medium
JP2018007065A (en) Image processing apparatus, display method for image for error cancellation in the apparatus, and display program
US8902447B2 (en) Image processing apparatus displaying operating procedure, control method therefor, and storage medium storing control program therefor
JP6620737B2 (en) Image forming apparatus
JP6855757B2 (en) Image processing systems, mobile terminal devices and programs
JP3938575B2 (en) Information display system
JP2012137525A (en) Image forming apparatus, and display device
JP4866297B2 (en) Image forming apparatus
JP2007226057A (en) Image forming apparatus
JP6292140B2 (en) Image processing system
US20150319325A1 (en) Image forming apparatus, controlling method of image forming apparatus, and storing medium
US10944878B2 (en) Image reading apparatus and image forming apparatus for warning of risk of information leakage
JP6841007B2 (en) Image processing systems, mobile terminal devices and programs
JP2007226683A (en) Image forming apparatus
JP2018120372A (en) Electronic device and image forming apparatus
JP2018056918A (en) Image formation apparatus
JP2019188761A (en) Image forming device
JP2014130619A (en) Device
JP2006184713A (en) Image forming apparatus
JP7124729B2 (en) Image forming system and image forming apparatus
JP6992663B2 (en) Image forming apparatus, control method and program of image forming apparatus
JP7342556B2 (en) Image reading system
JP2021057639A (en) Image processing device and control program
JP2018072736A (en) Display device and display method
JP2023060656A (en) Operation guidance system, portable terminal, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190723

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200904

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200915

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210216

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210301

R150 Certificate of patent or registration of utility model

Ref document number: 6855757

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150