JP2020201840A - 表示プログラム、表示方法および情報処理装置 - Google Patents

表示プログラム、表示方法および情報処理装置 Download PDF

Info

Publication number
JP2020201840A
JP2020201840A JP2019109837A JP2019109837A JP2020201840A JP 2020201840 A JP2020201840 A JP 2020201840A JP 2019109837 A JP2019109837 A JP 2019109837A JP 2019109837 A JP2019109837 A JP 2019109837A JP 2020201840 A JP2020201840 A JP 2020201840A
Authority
JP
Japan
Prior art keywords
image
information
unit
user
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019109837A
Other languages
English (en)
Inventor
円 河本
Madoka Kawamoto
円 河本
智久 安川
Tomohisa Yasukawa
智久 安川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2019109837A priority Critical patent/JP2020201840A/ja
Publication of JP2020201840A publication Critical patent/JP2020201840A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】ユーザの機器に関する情報提示を行うこと。【解決手段】本発明の情報処理装置200は、機器の状態を判定可能な機器の箇所を示す第1画像を端末装置の画面に表示する。情報処理装置200は、機器の箇所を撮影範囲に含む撮影装置によって撮影された第2画像を取得する。情報処理装置200は、第2画像に含まれる箇所の特徴に対応付けられる少なくとも一つの第3画像を判定し、判定した第3画像を端末装置の画面に表示する。【選択図】図1

Description

本発明は、表示プログラム等に関する。
従来、サポートデスクのエージェントは、製品に発生した不具合等に関するユーザからの問合せに対して電話対応を行っている。ユーザからの問合せは増加傾向にあり、エージェントが電話対応にかける時間を確保することや、エージェントの負担を軽減することを目的として、チャットボットによるサービスも開始されている。
特開2010−218359号公報 特開2015−97069号公報
しかしながら、チャットボットによる対応では、ユーザからの問合せに対してユーザレベルに沿っての対応ができずに適切な回答できないことが多く、このような場合には、エージェントがユーザからの問合せを引き継いで対応を行っている。
すなわち、従来技術では、ユーザの機器に関するサポート情報等の情報提示を、人手を介することなく行うことができていない。
1つの側面では、本発明は、ユーザの機器に関する情報提示を行うことができる表示プログラム、表示方法および情報処理装置を提供することを目的とする。
第1の案では、コンピュータは、次の処理を実行する。コンピュータは、機器の状態を判定可能な機器の箇所を示す第1画像を端末装置の画面に表示し、機器の箇所を撮影範囲に含む撮影装置によって撮影された第2画像を取得する。コンピュータは、第2画像に含まれる箇所の特徴に対応付けられる少なくとも一つの第3画像を判定し、判定した第3画像を端末装置の画面に表示する。
ユーザの機器に関する情報提示を行うことができる。
図1は、本実施例に係るシステムの構成を示す機能ブロック図である。 図2は、携帯端末の表示画面に表示される画像の一例を説明するための図である。 図3は、本実施例に係る携帯端末の構成を示す機能ブロック図である。 図4は、ユーザ特徴情報のデータ構造の一例を示す図である。 図5は、前処理部が生成する画面情報の一例を示す図である。 図6は、本実施例に係る情報処理装置の構成を示す機能ブロック図である。 図7は、種別特定テーブルのデータ構造の一例を示す図である。 図8は、確認箇所画像テーブルのデータ構造の一例を示す図である。 図9は、確認箇所画面の一例を示す図である。 図10は、機器識別テーブルのデータ構造の一例を示す図である。 図11は、第1画像DBのデータ構造の一例を示す図である。 図12は、各識別情報に対応する各第1画像の一例を示す図である。 図13は、第3画像DBのデータ構造の一例を示す図である。 図14は、第3画像の一例を示す図である。 図15は、習熟度DBのデータ構造の一例を示す図である。 図16は、応答画像の一例を示す図である。 図17は、不具合の特徴の一例を示す図(1)である。 図18は、不具合の特徴の一例を示す図(2)である。 図19は、本実施例に係る情報処理装置の処理手順を示すフローチャートである。 図20は、表示制御処理の処理手順を示すフローチャートである。 図21は、本実施例に係る習熟度判定部の処理を示すフローチャートである。 図22は、情報処理装置のその他の処理を説明するための図である。 図23は、本実施例に係る携帯端末と同様の機能を実現するコンピュータのハードウェア構成の一例を示す図である。 図24は、本実施例に係る情報処理装置と同様の機能を実現するコンピュータのハードウェア構成の一例を示す図である。
以下に、本願の開示する表示プログラム、表示方法および情報処理装置の実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。
図1は、本実施例に係るシステムの構成を示す機能ブロック図である。図1に示すように、このシステムは、携帯端末100と、情報処理装置200とを有する。携帯端末100は、ネットワーク50を介して、情報処理装置200と接続される。たとえば、携帯端末100は、無線通信によって、ネットワーク50に接続するものとする。
携帯端末100は、タッチパネル等の表示部15、カメラ10a,10bを備えるスマートフォンやタブレット端末に対応する装置である。携帯端末100は、端末装置の一例である。カメラ10aは、携帯端末100の前面に配置され、カメラ10bは、携帯端末100の背面に配置される。携帯端末100は、カメラ10aを用いて画像を撮影してもよいし、カメラ10bを用いて画像を撮影してもよい。以下の説明では、カメラ10a,10bをまとめて、カメラ10と表記する。
たとえば、ユーザ5は、対象機器1の不具合を確認すると、携帯端末100を操作して、情報処理装置200にアクセスする。情報処理装置200は、携帯端末100からのアクセスを受け付けると、対象機器1の状態を確認可能な箇所を示す第1画像を携帯端末100の表示部15に表示させる。
ユーザ5は、表示部15に表示された第1画像を参照し、携帯端末100のカメラ10によって、対象機器1の該当箇所の第2画像を撮影する。情報処理装置200は、携帯端末100から送信される第2画像の特徴を基にしたサポート情報を示す第3画像を携帯端末100の表示部15に表示させる。ユーザ5は、表示部15に表示される第3画像を参照して、対象機器1の不具合を解消する。これによって、サポート側で、人手を介さずに、対象機器1の不具合を解消するための情報を提示することができる。
図2は、携帯端末の表示部に表示される画像の一例を説明するための図である。たとえば、携帯端末100の表示部15に表示される画面情報20は、ステップS10,11,12の順に変化する。画面情報20には、領域21a,21b,21cが含まれる。領域21aは、第1画面の情報または、第3画面の情報を表示する領域である。領域21bは、カメラ10の撮影範囲の画像を表示する領域である。領域21cは、ユーザ5が操作する携帯端末100と情報処理装置200とのチャットのやり取りの文字列を表示する領域である。
ステップS10について説明する。情報処理装置200が、第1画像の情報を携帯端末100に送信すると、携帯端末100は、第1画面の情報を領域21aに表示させる。
ステップS11について説明する。ユーザ5は、領域21aの第1画像を参照し、対象機器1の該当箇所を判断する。ユーザ5は、携帯端末100を操作して、対象機器1の該当箇所がカメラ10の撮像範囲に収まるように調整し、カメラ10の撮影ボタン(図示略)を押下することで、第2画像を撮影する。携帯端末100は、カメラ10が撮影した第2画像の情報を、領域21bに表示させる。また、携帯端末100は、第2画像の情報を、情報処理装置200に送信する。
ステップS12について説明する。情報処理装置200は、第2画像の特徴を基にしたサポート情報を示す第3画像を特定し、第3画像の情報を携帯端末100に送信する。携帯端末100は、第3画像の情報を受信すると、第3画面の情報を、領域21aに表示させる。ユーザ5は、領域21aに表示された第3画像を参照して、対象機器1の不具合の解消を試みる。図2に示す例では、第3画像において、対象機器1に相当する装置背面のコンソールポートにパソコンを接続して、設定画面を起動する旨の説明が記載されている。
次に、本実施例に係る携帯端末100の構成の一例について説明する。図3は、本実施例に係る携帯端末の構成を示す機能ブロック図である。図3に示すように、この携帯端末100は、カメラ10a,10bと、表示部15と、マイク110と、通信部120と、記憶部130と、制御部140とを有する。
カメラ10a,10bは、撮影範囲の画像を撮影するカメラである。たとえば、カメラ10aは、携帯端末100の前面に配置され、カメラ10bは、携帯端末100の背面に配置される。携帯端末100は、カメラ10aまたはカメラ10bを用いて、画像を撮影する。撮影に使用するカメラは、ユーザ5が選択してもよいし、携帯端末100が自動で選択してもよい。
表示部15は、制御部140から出力される画面情報を表示する表示装置である。表示部15は、タッチパネル等に対応する。また、表示部15は、ユーザ5からの情報入力を受け付ける機能を有し、ユーザ5は、表示部(タッチパネル)15を操作して、各種の情報を、携帯端末100に入力する。
マイク110は、ユーザ5の音声を集音するマイクである。マイク110は、集音した音声情報を、携帯端末100に出力する。
通信部120は、無線通信によって、ネットワーク50に接続し、情報処理装置200との間でデータ通信を実行する処理部である。通信部120は、通信装置に対応する。後述する制御部140は、通信部120を介して、情報処理装置200とデータをやり取りする。
記憶部130は、画像バッファ131と、ユーザ特徴情報132とを有する。記憶部130は、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)などの半導体メモリ素子などの記憶装置に対応する。
画像バッファ131は、カメラ10により撮影される各画像の情報、情報処理装置200から送信される各画像の情報を保持するバッファである。
ユーザ特徴情報132は、ユーザ5がパソコンやスマートフォンの操作や知識に関して、初心者であるか、熟練者であるのかを判定するために用いられる情報である。図4は、ユーザ特徴情報のデータ構造の一例を示す図である。図4に示すように、ユーザ特徴情報132は、入力ワード情報、視線情報、技術レベル情報を含む。
入力ワード情報は、ユーザ5が携帯端末100を操作して、文字を入力する際の特徴を示す情報であり、たとえば、入力ワード情報として、文字の入力スピード、バックスペースの使用頻度などが含まれる。
視線情報は、ユーザ5が携帯端末100を操作する際の、ユーザの視線の特徴を示す情報である。たとえば、表示部15上の所定時間毎の視線位置が、視線情報に対応する。
技術レベル情報は、ユーザが携帯端末100を操作して、文字を入力する際の文字の技術レベルを示す情報である。たとえば、初心者ワードの使用回数、熟練者ワードの使用回数を含む。初心者ワードおよび熟練者ワードは、予め定義されているものとする。
図3の説明に戻る。制御部140は、前処理部141、表示制御部142、収集部143を有する。制御部140は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)などによって実現できる。また、制御部140は、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などのハードワイヤードロジックによっても実現できる。
前処理部141は、情報処理装置200と連携して、不具合の発生した対象機器1の種別を特定するための情報を取得する処理部である。以下において、前処理部141の処理の一例について説明する。
前処理部141は、表示部(タッチパネル)15を介して、処理開始の要求を受け付けると、カメラ10を起動して、不具合の発生した対象機器1の撮影要求を、表示部15に表示させる。ユーザ5は、表示部15に表示された撮影要求を確認すると、携帯端末100を操作して、カメラ10によって、対象機器1の画像を撮影する。処理開始において、カメラ10に撮影された画像の情報を「初期画像情報」と表記する。
前処理部141は、初期画像情報を、画像バッファ131に格納する。また、前処理部141は、画像バッファ131に格納された初期画像情報を、情報処理装置200に送信する。情報処理装置200は、初期画像情報の対象機器1の形状の特徴等から、対象機器1の種別を特定する。種別とは、パソコン、プリンタ、サーバー等の大まかな種別に対応する。情報処理装置200は、特定した種別から、対象機器1の型番や号機などの固有の識別情報を特定するための文字またはQR(Quick Response)コード(登録商標)が配置される装置(対象機器1)の箇所を示す「確認箇所画像」の情報を、前処理部141に送信する。
続いて、前処理部141は、情報処理装置200から確認箇所画像の情報を受信し、画像バッファ131に格納する。前処理部141は、確認箇所画像の情報を基にして、画面情報を生成し、表示部15に表示させる。
図5は、前処理部が生成する画面情報の一例を示す図である。図5に示すように、前処理部141により生成される画面情報25には、領域26a,26b,26cが含まれる。領域26aは、確認箇所画像の情報を表示する領域である。領域26bは、カメラ10の撮影範囲の画像を表示する領域である。領域26cは、ユーザ5が操作する携帯端末100と情報処理装置200とのチャットのやり取りの文字列を表示する領域である。
ユーザ5は、領域26aの確認箇所画像の情報を参照し、対象機器1の型番や号機等を識別可能な該当箇所を判断する。携帯端末100を操作して、対象機器1の該当箇所がカメラ10の撮像範囲に収まるように調整し、カメラ10の撮影ボタン(図示略)を押下することで、「応答画像」を撮影する。たとえば、応答画像には、対象機器1の識別情報を特定するための文字列またはQRコードが含まれる。応答画像は、第4画像の一例である。
前処理部141は、応答画像の情報を、画像バッファ131に格納する。また、前処理部141は、画像バッファ131に格納された応答画像の情報を、情報処理装置200に送信する。情報処理装置200は、応答画像を基にして、対象機器1の識別情報を特定する。後述するように、情報処理装置200は、対象機器1の識別情報に対応する第1画像を選択し、選択した第1画像の情報を、携帯端末100に送信する。「第1画像」は、対象機器1の状態を確認可能な箇所を示す画像である。
表示制御部142は、図2で説明した画面情報20を生成し、生成した画面情報20を、表示部15に出力して表示させる処理部である。表示制御部142は、情報処理装置200から第1画像の情報を受信すると、第1画像の情報を、画像バッファ131に格納する。表示制御部142は、図2のステップS10で説明したように、第1画像の情報を、画面情報20の領域21aに表示させる。また、表示制御部142は、情報処理装置200から、領域21cに表示させる文字列の情報を受信した場合には、受信した文字列の情報を、領域21cに表示させる。以下の説明では、領域21cに表示させる文字列の情報を、「チャット情報」と表記する。
ユーザ5は、領域21aの第1画像を参照し、対象機器1の該当箇所を判断する。ユーザ5は、携帯端末100を操作して、対象機器1の該当箇所がカメラ10の撮像範囲に収まるように調整し、カメラ10の撮影ボタン(図示略)を押下することで、第2画像を撮影する。表示制御部142は、第2画像の情報をカメラ10から取得し、画像バッファ131に格納する。表示制御部142は、図2のステップS11で説明したように、第2画像の情報を、領域21bに表示させる。また、表示制御部142は、第2画像の情報を、情報処理装置200に送信する。
なお、ユーザ5は、カメラ10の撮影ボタンを押下して、所定時間の映像情報を撮影してもよい。表示制御部142は、映像情報をカメラ10から取得し、画像バッファ131に格納する。表示制御部142は、第2画像の情報の代わりに、映像情報を、情報処理装置200に送信する。
情報処理装置200は、第2画像(あるいは、映像情報)の特徴を基にしたサポート情報を示す第3画像を特定し、第3画像の情報を表示制御部142に送信する。表示制御部142は、情報処理装置200から第3画像の情報を受信すると、第3画像の情報を、画像バッファ131に格納する。表示制御部142は、図2のステップS12で説明したように、第3画像の情報を、領域21aに表示させる。ユーザ5は、領域21aに表示された第3画像を参照して、対象機器1の不具合の解消を試みる。図2に示す例では、第3画像において、対象機器1に相当する装置背面のコンソールポートにパソコンを接続して、設定画面を起動する旨の説明が記載されている。
収集部143は、表示部15を操作するユーザ5に関する、入力ワード情報、視線情報、技術レベル情報を収集する処理部である。収集部143は、収集した入力ワード情報、視線情報、技術レベル情報を、ユーザ特徴情報132に格納する。また、収集部143は、ユーザ5のユーザIDを受け付けた場合には、ユーザIDを、情報処理装置200に送信する。
たとえば、収集部143は、ユーザ5による表示部15の操作を監視し、所定時間における文字の入力スピード、バックスペースの使用頻度を特定する。収集部143は、特定した、文字の入力スピード、バックスペースの使用頻度の情報を、入力ワード情報として、ユーザ特徴情報132に格納する。
収集部143は、カメラ10aを用いて、周知の視線検出技術により、表示部15上のユーザ5の視線位置を所定時間毎に検出し、検出した所定時間毎の視線位置を、視線情報として、ユーザ特徴情報132に格納する。
収集部143は、ユーザ5が表示部15を操作することによって入力される文字を監視し、初心者ワードの使用回数、熟練者ワードの使用回数をカウントする。収集部143は、カウントした初心者ワードの使用回数、熟練者ワードの使用回数を、技術レベル情報として、ユーザ特徴情報132に格納する。
収集部143は、ユーザ5を識別するユーザIDと、ユーザ特徴情報132とを、情報処理装置200に送信し、ユーザ5が初心者であるか、熟練者であるかの判定を要求する。収集部143は、判定結果を情報処理装置200から受信し、ユーザ5が、初心者であるか、熟練者であるかの判定結果を、前処理部141、表示制御部142に出力する。
ここで、上述した前処理部141は、ユーザ5が初心者である場合には、マイク110を起動し、音声認識によって、ユーザ5からの入力を受け付ける。前処理部141は、マイク110から入力された音声を文字列に変換し、変換した文字列を、図5で説明した領域26cに表示させる。前処理部141は、ユーザ5が熟練者である場合には、表示部15の操作によって、ユーザからの入力を受け付ける。前処理部141は、表示部115から入力された文字列を、図5で説明した領域26cに表示させる。
表示制御部142は、ユーザ5が初心者である場合には、マイク110を起動し、音声認識によって、ユーザ5からの入力を受け付ける。表示制御部142は、マイク110から入力された音声を文字列に変換し、変換した文字列を、図2で説明した領域21cに表示させる。表示制御部142は、ユーザ5が熟練者である場合には、表示部15の操作によって、ユーザからの入力を受け付ける。表示制御部142は、表示部115から入力された文字列を、図2で説明した領域21cに表示させる。
次に、本実施例に係る情報処理装置200の構成の一例について説明する。図6は、本実施例に係る情報処理装置の構成を示す機能ブロック図である。図6に示すように、この情報処理装置200は、通信部210と、入力部220と、表示部230と、記憶部240と、制御部250とを有する。
通信部210は、ネットワーク50を介して、携帯端末100との間でデータ通信を実行する処理部である。通信部210は、通信装置に対応する。後述する制御部250は、通信部210を介して、携帯端末100とデータをやり取りする。
入力部220は、情報処理装置200に対して、各種の情報を入力するための入力装置である。入力部220は、キーボードやマウス、タッチパネルに対応する。
表示部230は、制御部250から出力される情報を表示するための表示装置である。表示部230は、液晶ディスプレイや、タッチパネル等に対応する。
記憶部240は、種別特定テーブル241と、確認箇所画像テーブル242と、機器識別テーブル243と、第1画像DB244と、第3画像DB245と、保守作業員日程情報246と、習熟度DB247とを有する。記憶部240は、RAM、フラッシュメモリなどの半導体メモリ素子、HDD(Hard Disk Drive)などの記憶装置に対応する。
種別特定テーブル241は、対象機器の種別を判定するための情報を保持する。図7は、種別特定テーブルのデータ構造の一例を示す図である。図7に示すように、この種別特定テーブル241は、種別と、形状情報とを対応付ける。種別は、対象機器の種別を示すものである。形状情報は、対象機器の種別に応じた機器全体の形状を示す情報である。
確認箇所画像テーブル242は、対象機器の種別に対応する確認箇所画像を保持するテーブルである。図8は、確認箇所画像テーブルのデータ構造の一例を示す図である。図8に示すように、この確認箇所画像テーブル242は、種別と、確認箇所画面とを対応付ける。種別は、対象機器の種別を示すものである。確認箇所画面は、対象機器の識別情報を特定するための文字またはQRコードが配置される装置の箇所を示す画像である。
図9は、確認箇所画面の一例を示す図である。たとえば、図9に示す確認箇所画面は、種別「ネットワーク機器」に対応する確認箇所画面である。図9に示すように、ネットワーク機器を識別するための文字やQRコードは、ネットワーク機器30の上面に配置されることが示されている。
機器識別テーブル243は、対象機器に配置された文字またはQRコードの情報と、対象機器の識別情報とを対応付けるテーブルである。図10は、機器識別テーブルのデータ構造の一例を示す図である。図10に示すように、この機器識別テーブル243は、QRコード情報(ビット列)と、文字と、識別情報とを対応付ける。後述するように、応答画像の情報から読み取られるQRコードの情報または、文字によって、対象機器の識別情報が特定される。識別情報は、対象機器を一意に識別する情報であり、型番や号機であってもよい。
第1画像DBは、第1画像に関する情報を保持するデータベースである。図11は、第1画像DBのデータ構造の一例を示す図である。図11に示すように、この第1画像DBは、識別情報と、第1画像とを対応付ける。識別情報は、対象機器を識別する情報である。第1画像は、識別情報によって識別される対象機器の状態を識別可能な箇所を示す画像である。
図12は、各識別情報に対応する各第1画像の一例を示す図である。第1画像40は、種別がパソコンに属するある識別情報(たとえば、PC0001)に対応する第1画像である。第1画像41は、種別がプリンタに属するある識別情報(たとえば、PR0001)に対応する第1画像である。第1画像42は、種別がサーバーに属するある識別情報(たとえば、S00001)に対応する第1画像である。第1画像43は、種別がネットワーク機器に属するある識別情報(たとえば、N0001)に対応する第1画像である。
第3画像DB245は、第3画像に関する情報を保持するデータベースである。図13は、第3画像DBのデータ構造の一例を示す図である。図13に示すように、この第3画像DB245は、識別情報と、不具合の特徴と、対応フラグと、第3画像とを対応付ける。識別情報は、対象機器を識別する情報である。不具合の特徴は、第2画像に含まれる不具合の特徴を示すものである。たとえば、不具合の特徴には、所定のランプの点灯の有無、ランプの色、点滅の有無、所定のエラーメッセージ等が含まれる。
対応フラグは、ユーザによって不具合に対応することが可能であるか否かを示すフラグである。ユーザによって不具合に対応することができる場合には、フラグが「1」となる。ユーザによって不具合に対応することができない場合には、フラグが「0」となる。第3画像は、該当する不具合に対応するための画像(サポート情報)である。
図14は、第3画像の一例を示す図である。図14に示す第3画像は、あるネットワーク機器の不具合に対処方法を示す第3画像である。図14に示す第3画像では、対処方法として、対象機器1に相当する装置背面のコンソールポートにパソコンを接続して、設定画面を起動する旨の説明が示されている。
保守作業員日程情報246は、保守作業員のスケジュール情報を保持するテーブルである。
習熟度DB247は、ユーザの習熟度の情報を保持するテーブルである。図15は、習熟度DB247のデータ構造の一例を示す図である。図15は、習熟度DBのデータ構造の一例を示す図である。図15に示すように、この習熟度DB247は、ユーザIDと、初心者フラグとを対応付ける。ユーザIDは、ユーザを一意に識別する情報である。初心者フラグは、ユーザIDにより識別されるユーザが初心者であるか否かを示す情報である。ユーザIDにより識別されるユーザが初心者である場合には、初心者フラグが「1」となる。ユーザIDにより識別されるユーザが初心者である場合には、初心者フラグが「0」となる。
図6の説明に戻る。制御部250は、特定部251と、表示制御部252と、習熟度判定部253とを有する。制御部250は、CPUやMPUなどによって実現できる。また、制御部250は、ASICやFPGAなどのハードワイヤードロジックによっても実現できる。
特定部251は、携帯端末100の前処理部141と連携して、不具合の発生した対象機器1の種別および識別情報を特定する処理部である。特定部251が、対象機器1の種別を特定する処理について説明する。特定部251は、前処理部141から初期画像情報を受信した場合、初期画像情報に対してハフ変換等を実行し、エッジ画像を生成する。特定部251は、エッジ画像を基にして、対象機器1の形状を抽出する。特定部251は、対象機器1の形状と、種別特定テーブル241の形状情報とを比較して、対象機器1の形状と最も類似する形状情報の種別を特定する。
なお、特定部251は、上記処理を所定回数実行しても、種別を特定できない場合には、識別情報を確認するための手順を記した確認手順の情報を、携帯端末100に送信する。ユーザ5は、携帯端末100の表示部15に表示される確認手順の情報を参照して、対象機器1の識別情報を確認し、携帯端末100に識別情報を入力する。特定部251は、携帯端末100から、対象機器1の識別情報を受信する。特定部251は、かかる処理により、対象機器1の識別情報を受信した場合には、以下に説明する識別情報を特定する処理をスキップする。
特定部251は、特定した種別が、対象機器1の識別情報を判定するための文字列やQRコードの配置箇所を撮影することが困難である場合にも、識別情報を確認するための手順を記した確認手順の情報を、携帯端末100に送信して、識別情報を取得してもよい。対象機器1の識別情報を判定するための文字列やQRコードの配置箇所を撮影することが困難な種別は、予め設定されているものとする。
続いて、特定部251が、対象機器1の識別情報を特定する処理について説明する。特定部251は、上記処理により特定した対象機器1の種別と、確認箇所画像テーブル242とを比較して、種別に対応する確認箇所画像の情報を取得する。特定部251は、確認箇所情報の情報を携帯端末100の前処理部141に送信すると、ユーザ5の操作により、応答画像が撮影される。
特定部251は、携帯端末100の前処理部141から、応答画像の情報を受信する。特定部251は、応答画像に対してパターンマッチング等の画像解析を行い、応答画像に含まれる文字列または、QRコードを検出する。図16は、応答画像の一例を示す図である。たとえば、応答情報60には、対象機器1を識別するための文字列60aと、QRコード60bとが含まれる。また、応答画像61には、対象機器1を識別する文字列61aが含まれる。
特定部251は、応答情報60のように、文字列60aと、QRコード60bとが含まれる場合には、文字列60aまたはQRコード60bのうち、いずれか一方を検出する。特定部251は、QRコードを検出した場合には、QRコードをビット列に変換する。特定部251は、応答情報から検出した文字列またはQRコードの情報と、機器識別テーブル243とを比較して、対象機器1の識別情報を特定する。特定部251は、対象機器1の識別情報を、表示制御部252に出力する。
特定部251は、応答情報に文字列またはQRコードが含まれない場合には、再度、携帯端末100に確認箇所画像の情報を送信して、応答情報を取得し、上記処理を実行することで、対象機器1の識別情報を特定する。
表示制御部252は、第1画像の情報を携帯端末100に送信して表示させる処理、携帯端末100から受信する第2画像の特徴に応じた第3画像を特定する処理、第3画像の情報を携帯端末100に送信して表示させる処理を実行する。表示制御部252は、「第1表示制御部」および「第2表示制御部」に対応する。
表示制御部252が、第1画像の情報を携帯端末100に送信して表示させる処理について説明する。表示制御部252は、特定部251から対象機器1の識別情報を取得し、取得した識別情報と、第1画像DB244とを比較して、識別情報に対応する第1画像の情報を取得する。表示制御部252は、第1画像の情報を携帯端末100の表示制御部142に送信して表示させる。たとえば、図2のステップS10の画面情報20の領域21aに、第1画像が表示される。
表示制御部252が、携帯端末100から受信する第2画像の特徴に応じた第3画像を特定する処理について説明する。表示制御部252は、第2画像の情報に対して、パターンマッチング等を実行することで、第2画像に含まれるランプの領域、または、エラーコー等を表示するディスプレイの領域を検出する。表示制御部252は、第2画像に含まれるランプの領域について、ランプが点灯しているか消灯しているかの情報およびランプの色を、不具合の特徴として検出する。また、表示制御部252は、ディスプレイに表示されているエラーコードの情報を、不具合の特徴として検出する。
表示制御部252は、携帯端末100から、第2画像の情報の代わりに、映像情報を受信した場合には、映像情報に対して、パターンマッチング等を実行することで、映像情報に含まれる各画像情報のランプの領域を特定する。表示制御部252は、映像情報の各画像情報に含まれるランプの領域の点灯の有無を特定し、ランプの領域が点灯しているのか、消灯しているのか、点滅しているのかの情報、ランプの色を、不具合の特徴として検出する。
図17は、不具合の特徴の一例を示す図(1)である。図17に示す例では、ランプ10−1〜10−10が存在する。ランプ10−1〜10−10のうち、ランプ10−1,10−6,10−7が点灯し、ランプ10−3が点滅している。かかるランプの点灯、消灯、点滅が、不具合の特徴となる。
図18は、不具合の特徴の一例を示す図(2)である。図18に示す例では、ディスプレイ11−1において、エラーコード「error0011」が表示されており、係るエラーコードが、不具合の特徴となる。
表示制御部252は、第2画像(または映像情報)から不具合の特徴を検出すると、特定部251によって特定された識別情報および不具合の特徴の組と、第3画像DB245とを比較する。表示制御部252は、第3画像DB245において、識別情報および不具合の特徴の組に対応する対応フラグが「1」となっている場合には、識別情報および不具合の特徴の組に対応する第3画像を取得する。
表示制御部252は、第3画像DB245において、識別情報および不具合の特徴の組に対応する対応フラグが「0」となっている場合、または、識別情報および不具合の特徴の組に対応する第3画像が存在しない場合には、保守作業員の日程を通知する処理を行う。表示制御部252は、保守作業員日程情報246を参照し、現在日時以降における保守作業員のスケジュールの情報を、携帯端末100に送信して表示させる。
表示制御部252が、第3画像の情報を携帯端末100に送信して表示させる処理について説明する。表示制御部252は、第3画像の情報を携帯端末100の表示制御部142に送信して表示させる。たとえば、図2のステップS11の画面情報20の領域21aに、第3画像が表示される。
図6の説明に戻る。習熟度判定部253は、携帯端末100の収集部143からユーザ特徴情報132を取得し、ユーザ5が初心者であるか、熟練者であるかを判定する処理部である。習熟度判定部253は、ユーザ5が初心者であるか、熟練者であるかの判定結果を、携帯端末100に送信する。
図4で説明したように、ユーザ特徴情報132には、入力ワード情報、視線情報、技術レベル情報が含まれる。習熟度判定部253は、入力ワード情報、視線情報、技術レベル情報に対して下記の処理をそれぞれ行い、Nの値を算出する。習熟度判定部253は、Nの値が閾値以上である場合に、ユーザ5は、熟練者であると判定する。一方、習熟度判定部253は、Nの値が閾値未満である場合に、ユーザ5は、初心者であると判定する。Nの初期値を0とする。
習熟度判定部253は、入力ワード情報を参照し、所定時間における文字の入力スピードが所定の入力スピード以上である場合、または、バックススペースの使用頻度が所定の使用頻度未満である場合に、Nに1を加算する。
習熟度判定部253は、視線情報を参照し、視線位置の分散を算出する。習熟度判定部253は、視線位置の分散が所定の分散以上である場合に、Nに1を加算する。
習熟度判定部253は、技術レベル情報を参照し、初心者ワードの使用回数よりも、熟練者ワードの使用回数が多い場合に、Nに1を加算する。
たとえば、習熟度判定部253は、ユーザ5が初心者であると判定した場合には、ユーザ5が初心者である旨の情報を、携帯端末100に通知する。これによって、携帯端末100は、マイク110を起動した音声入力により、ユーザ5からの入力を受け付ける。
習熟度判定部253は、ユーザ5が熟練者であると判定した場合には、ユーザ5が熟練者である旨の情報を、携帯端末100に通知する。これによって、携帯端末100は、タッチパネルを用いた入力操作により、ユーザ5からの入力を受け付ける。
次に、本実施例に係る情報処理装置200の処理手順の一例について説明する。図19は、本実施例に係る情報処理装置の処理手順を示すフローチャートである。図19に示すように、情報処理装置200の特定部251は、携帯端末100から初期画像情報を受信し、対象機器の種別を判定する(ステップS101)。特定部251は、識別情報の特定が困難な場合には(ステップS102,Yes)、ステップS103に移行する。特定部251は、識別情報の特定が困難ではない場合には(ステップS102,No)ステップS105に移行する。
特定部251は、確認手順の情報を携帯端末100に送信して表示させる(ステップS103)。特定部251は、携帯端末100から識別情報を受信し(ステップS104)、ステップS111に移行する。
特定部251は、確認箇所画面の情報を携帯端末100に送信して表示させる(ステップS105)。特定部251は、携帯端末100から応答画面の情報を受信する(ステップS106)。
特定部251は、応答画像に文字列またはQRコードが含まれる場合には(ステップS107,Yes)、ステップS108に移行する。特定部251は、応答画像に文字列またはQRコードが含まれない場合には(ステップS107,No)、ステップS105に移行する。
特定部251は、応答画面の情報にQRコードが含まれない場合には(ステップS108,No)、文字列を基にして、識別情報を特定し(ステップS109)、ステップS111に移行する。
一方、特定部251は、応答画面の情報にQRコードが含まれている場合には(ステップS108,Yes)、QRコードを基にして識別情報を特定する(ステップS110)。特定部251は、表示制御処理を実行する(ステップS111)。
次に、図19のステップS111に示した表示制御処理の処理手順の一例について説明する。図20は、表示制御処理の処理手順を示すフローチャートである。図20に示すように、情報処理装置200の表示制御部252は、第1画像DB244を基にして、識別情報に対応する第1画像の情報を選択する(ステップS201)。
表示制御部252は、第1画像の情報を携帯端末100に送信して表示させる(ステップS202)。表示制御部252は、携帯端末100から第2画面の情報を受信する(ステップS203)。
表示制御部252は、識別情報および第2画像の特徴と、第3画像DB245とを基にして、対応フラグが「1」であるか否かを判定する(ステップS204)。表示制御部252は、対応フラグが「1」でない場合には(ステップS205,No)、携帯端末100に保守作業員の日程を通知する(ステップS206)。
一方、表示制御部252は、対応フラグが「1」である場合には(ステップS205,Yes)、識別情報および第2画像の特徴に対応付けられる第3画像の情報を選択する(ステップS207)。表示制御部252は、第3画像の情報を携帯端末100に送信して表示させる(ステップS208)。
次に、情報処理装置200の習熟度判定部253の処理手順の一例について説明する。図21は、本実施例に係る習熟度判定部の処理を示すフローチャートである。図21に示すように、情報処理装置200の習熟度判定部253は、携帯端末100からユーザIDを取得する(ステップS301)。習熟度判定部253は、習熟度DB247を参照し、ユーザIDに対応するレコードが、習熟度DB247に存在するか否かを判定するか否かを判定する(ステップS302)。
習熟度判定部253は、ユーザIDに対応するレコードが習熟度DB247に存在する場合には(ステップS302,Yes)、ユーザIDに対応する初心者フラグが「1」であるか否かを判定する(ステップS303)。
習熟度判定部253は、ユーザIDに対応する初心者フラグが「1」である場合には(ステップS303,Yes)、ステップS313に移行する。一方、習熟度判定部253は、ユーザIDに対応する初心者フラグが「1」でない場合には(ステップS303,No)、ステップS312に移行する。
習熟度判定部253は、Nに初期値0を設定する(ステップS304)。習熟度判定部253は、入力ワード情報の評価結果が熟練者である場合には(ステップS305,Yes)、Nに1を加算し(ステップS306)、ステップS307に移行する。一方、習熟度判定部253は、入力ワード情報の評価結果が熟練者でない場合には(ステップS305,No)、ステップS307に移行する。
習熟度判定部253は、視線情報の評価結果が熟練者である場合には(ステップS307,Yes)、Nに1を加算し(ステップS308)、ステップS309に移行する。一方、習熟度判定部253は、視線情報の評価結果が熟練者でない場合には(ステップS307,No)、ステップS309に移行する。
習熟度判定部253は、技術レベル情報の評価結果が熟練者である場合には(ステップS309,Yes)、Nに1を加算し(ステップS310)、ステップS311に移行する。一方、習熟度判定部253は、技術レベル情報の評価結果が熟練者でない場合には(ステップS309,No)、ステップS311に移行する。
習熟度判定部253は、Nが閾値以上である場合には(ステップS311,Yes)、ユーザが熟練者である旨の情報を携帯端末100に送信し(ステップS312)、ステップS314に移行する。
一方、習熟度判定部253は、Nが閾値以上でない場合には(ステップS311,No)、ユーザが初心者である旨の情報を携帯端末100に送信し(ステップS313)、習熟度DB247を更新する(ステップS314)。
次に、本実施例に係る情報処理装置200の効果について説明する。情報処理装置200は、対象機器1の状態を確認可能な箇所を示す第1画像を携帯端末100に表示させ、該当する第2画像の情報をユーザに撮影させる。情報処理装置200は、第2画像の特徴に対応する第3画像であって、不具合のサポート情報を示す第3画像を、携帯端末100に表示させる。これによって、サポート側で、人手を介さずに、対象機器1の不具合を解消するための情報を提示することができる。
情報処理装置200は、携帯端末100から確認箇所画像の送信に対応する、応答画像の情報を取得し、応答画像に含まれる文字列またはQRコードを基にして、対象機器1の識別情報を特定し、識別情報に対応する第1画像を選択する。これによって、サポート対象の複数の対象機器から、対象機器1の状態を確認可能な箇所を示す第1画像を携帯端末100に通知することができる。
情報処理装置200は、ユーザ特徴情報132を基にして、ユーザの習熟度を判定し、ユーザが初心者である場合には、ユーザによる携帯端末100の入力を音声入力に切り替える。これによって、入力操作の苦手な初心者であっても、容易に、携帯端末100に対する入力を行うことができる。
ところで、上述した情報処理装置200の処理は一例であり、情報処理装置200は、上述した処理以外の処理を更に実行してもよい。以下において、情報処理装置200のその他の処理について説明する。
情報処理装置200は、識別情報を特定した後に、複数の選択情報を送信し、複数の選択情報のうち、いずれかの選択情報を選択させてもよい。情報処理装置200は、識別情報と、選択された選択情報との組に対応する、第1画像の情報を、携帯端末100に送信して表示させ、第2画像の情報を撮影させる。識別情報に対して、複数の選択情報は、想定される不具合の候補を示す情報である。識別情報に対する複数の選択情報は、予め、記憶部240に設定されているものとする。
図22は、情報処理装置のその他の処理を説明するための図である。携帯端末100の表示制御部142は、情報処理装置200から、複数の選択情報を受信すると、画面情報25を生成して表示する。画面情報25には、領域25a,25b,25cが含まれる。領域25aは、第1画面の情報または、第3画面の情報を表示する領域である。領域25bは、カメラ10の撮影範囲の画像を表示する領域である。領域25cは、ユーザ5が操作する携帯端末100と情報処理装置200とのチャットのやり取りの文字列を表示する領域である。
図22に示す例では、携帯端末100は、領域25cにおいて、複数の選択情報25dを表示する。たとえば、選択情報25dには、「起動できない」、「動作不安定」、「ネットワーク接続できない」、「3つにあてはまるものがない」が含まれる。携帯端末100は、いずれかの選択情報がユーザ5によって選択されると、選択された選択情報を、情報処理装置200に送信する。図22では、選択情報「ネットワーク接続できない」が選択された場合を示す。
情報処理装置200の表示制御部252は、識別情報と、選択情報と、第1画像とを対応付けたDB(図示略)を参照して、対象機器1の識別情報および選択情報の組に対応する第1画像の情報を選択し、第1画像の携帯端末100に送信して表示させる。かかる処理を実行することによって、ユーザ5の想定する不具合に対応する、対象機器1の不具合箇所の撮影を促す第1画像の情報を、携帯端末100に送信して表示させることができる。
なお、情報処理装置200の表示制御部252は、各選択情報に対応する複数の第1画像を、携帯端末100に送信して、複数の第1画像の情報を、領域25aに表示させてもよい。
なお、本実施例では一例として、携帯端末100を用いて説明したが、これに限定されるものではなく、携帯端末100の代わりに、カメラ機能を有する機器に接続されたノートPC、パソコン等を用いてもよい。
次に、本実施例に示した携帯端末100と同様の機能を実現するコンピュータのハードウェア構成の一例について説明する。図23は、本実施例に係る携帯端末と同様の機能を実現するコンピュータのハードウェア構成の一例を示す図である。
図23に示すように、コンピュータ300は、各種演算処理を実行するCPU301と、ユーザからのデータの入力を受け付けると共に、各種画像を表示するタッチパネル302と、マイク303とを有する。また、コンピュータ300は、画像を撮影するカメラ304と、有線または無線ネットワークを介して、情報処理装置200との間でデータの授受を行う通信装置305とを有する。コンピュータ300は、各種情報を一時記憶するRAM306と、ハードディスク装置307とを有する。そして、各装置301〜307は、バス308に接続される。
ハードディスク装置307は、前処理プログラム307a、表示制御プログラム307b、収集プログラム307cを有する。CPU301は、前処理プログラム307a、表示制御プログラム307b、収集プログラム307cを読み出してRAM306に展開する。
前処理プログラム307aは、前処理プロセス306aとして機能する。表示制御プログラム307bは、表示制御プロセス306bとして機能する。収集プログラム307cは、収集プロセス306cとして機能する。
前処理プロセス306aの処理は、前処理部141の処理に対応する。表示制御プロセス306bの処理は、表示制御部142の処理に対応する。収集プロセス306cの処理は、収集部143の処理に対応する。
なお、各プログラム307a〜307cついては、必ずしも最初からハードディスク装置307に記憶させておかなくてもよい。例えば、コンピュータ300に挿入されるフレキシブルディスク(FD)、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に各プログラムを記憶させておく。そして、コンピュータ300が各プログラム307a〜307cを読み出して実行するようにしてもよい。
次に、本実施例に示した情報処理装置200と同様の機能を実現するコンピュータのハードウェア構成の一例について説明する。図24は、本実施例に係る情報処理装置と同様の機能を実現するコンピュータのハードウェア構成の一例を示す図である。
図24に示すように、コンピュータ500は、各種演算処理を実行するCPU501と、ユーザからのデータの入力を受け付ける入力装置502と、ディスプレイ503とを有する。また、コンピュータ500は、記憶媒体からプログラム等を読み取る読み取り装置504と、有線または無線ネットワークを介して、外部装置等との間でデータの授受を行うインタフェース装置505とを有する。コンピュータ500は、各種情報を一時記憶するRAM506と、ハードディスク装置507とを有する。そして、各装置501〜507は、バス508に接続される。
ハードディスク装置507は、特定プログラム507a、表示制御プログラム507b、習熟度判定プログラム507cを有する。CPU501は、特定プログラム507a、表示制御プログラム507b、習熟度判定プログラム507cを読み出してRAM506に展開する。
特定プログラム507aは、特定プロセス506aとして機能する。表示制御プログラム507bは、表示制御プロセス506bとして機能する。習熟度判定プログラム507cは、習熟度判定プロセス506cとして機能する。
特定プロセス506aの処理は、特定部251の処理に対応する。表示制御プロセス506bの処理は、表示制御部252の処理に対応する。習熟度判定プロセス506cの処理は、習熟度判定部253の処理に対応する。
なお、各プログラム507a〜507cついては、必ずしも最初からハードディスク装置507に記憶させておかなくてもよい。例えば、コンピュータ500に挿入されるフレキシブルディスク(FD)、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に各プログラムを記憶させておく。そして、コンピュータ500が各プログラム507a〜507cを読み出して実行するようにしてもよい。
以上の各実施例を含む実施形態に関し、さらに以下の付記を開示する。
(付記1)機器の状態を判定可能な前記機器の箇所を示す第1画像を端末装置の画面に表示し、
前記機器の箇所を撮影範囲に含む撮影装置によって撮影された第2画像を取得し、
前記第2画像に含まれる前記箇所の特徴に対応付けられる少なくとも一つの第3画像を判定し、判定した前記第3画像を前記端末装置の画面に表示する
処理をコンピュータに実行させることを特徴とする表示プログラム。
(付記2)前記機器に関する事象を選択するための複数の選択情報を表示する処理を更に実行し、前記第1画像を前記端末装置の画面に表示する処理は、前記複数の選択情報のうち、選択された選択情報に対応する前記第1画像を、前記端末装置の画面に表示することを特徴とする付記1に記載の表示プログラム。
(付記3)前記機器を撮影した第4画像を取得する処理を更に実行し、前記第1画像を前記端末装置の画面に表示する処理は、前記第4画像に含まれる前記機器を識別する情報に対応する前記第1画像を前記端末装置の画面に表示することを特徴とする付記1または2に記載の表示プログラム。
(付記4)前記機器を操作するユーザの操作履歴の情報を基にして前記ユーザの習熟度を判定し、前記習熟度を基にして、前記機器の入力を音声入力に切り替える処理を更に実行することを特徴とする付記1、2または3に記載の表示プログラム。
(付記5)機器の状態を判定可能な前記機器の箇所を示す第1画像を端末装置の画面に表示し、
前記機器の箇所を撮影範囲に含む撮影装置によって撮影された第2画像を取得し、
前記第2画像に含まれる前記箇所の特徴に対応付けられる少なくとも一つの第3画像を判定し、判定した前記第3画像を前記端末装置の画面に表示する
処理をコンピュータが実行することを特徴とする表示方法。
(付記6)前記機器に関する事象を選択するための複数の選択情報を表示する処理を更に実行し、前記第1画像を前記端末装置の画面に表示する処理は、前記複数の選択情報のうち、選択された選択情報に対応する前記第1画像を、前記端末装置の画面に表示することを特徴とする付記5に記載の表示方法。
(付記7)前記機器を撮影した第4画像を取得する処理を更に実行し、前記第1画像を前記端末装置の画面に表示する処理は、前記第4画像に含まれる前記機器を識別する情報に対応する前記第1画像を前記端末装置の画面に表示することを特徴とする付記5または6に記載の表示方法。
(付記8)前記機器を操作するユーザの操作履歴の情報を基にして前記ユーザの習熟度を判定し、前記習熟度を基にして、前記機器の入力を音声入力に切り替える処理を更に実行することを特徴とする付記5、6または7に記載の表示方法。
(付記9)機器の状態を判定可能な前記機器の箇所を示す第1画像を端末装置の画面に表示する第1表示制御部と、
前記機器の箇所を撮影範囲に含む撮影装置によって撮影された第2画像を取得し、前記第2画像に含まれる前記箇所の特徴に対応付けられる少なくとも一つの第3画像を判定し、判定した前記第3画像を前記端末装置の画面に表示する第2表示制御部と
を有することを特徴とする情報処理装置。
(付記10)前記第1表示制御部は、機器に関する事象を選択するための複数の選択情報を表示する処理を更に実行し、前記複数の選択情報のうち、選択された選択情報に対応する前記第1画像を、前記端末装置の画面に表示することを特徴とする付記9に記載の情報処理装置。
(付記11)前記第1表示制御部は、前記機器を撮影した第4画像を取得する処理を更に実行し、前記第4画像に含まれる前記機器を識別する情報に対応する前記第1画像を前記端末装置の画面に表示することを特徴とする付記9または10に記載の情報処理装置。
(付記12)前記機器を操作するユーザの操作履歴の情報を基にして前記ユーザの習熟度を判定し、前記習熟度を基にして、前記機器の入力を音声入力に切り替える習熟度判定部を更に有することを特徴とする付記9、10または11に記載の情報処理装置。
10a,10b カメラ
15 表示部
100 携帯端末
110 マイク
120 通信部
130 記憶部
131 画像バッファ
132 ユーザ特徴情報
140,250 制御部
141 前処理部
142,252 表示制御部
143 収集部
200 情報処理装置
210 通信部
220 入力部
230 表示部
240 記憶部
241 種別特定テーブル
242 確認箇所画像テーブル
243 機器識別テーブル
244 第1画像DB
245 第3画像DB
246 保守作業員日程情報
247 習熟度DB
251 特定部
253 習熟度判定部

Claims (6)

  1. 機器の状態を判定可能な前記機器の箇所を示す第1画像を端末装置の画面に表示し、
    前記機器の箇所を撮影範囲に含む撮影装置によって撮影された第2画像を取得し、
    前記第2画像に含まれる前記箇所の特徴に対応付けられる少なくとも一つの第3画像を判定し、判定した前記第3画像を前記端末装置の画面に表示する
    処理をコンピュータに実行させることを特徴とする表示プログラム。
  2. 前記機器に関する事象を選択するための複数の選択情報を表示する処理を更に実行し、前記第1画像を前記端末装置の画面に表示する処理は、前記複数の選択情報のうち、選択された選択情報に対応する前記第1画像を、前記端末装置の画面に表示することを特徴とする請求項1に記載の表示プログラム。
  3. 前記機器を撮影した第4画像を取得する処理を更に実行し、前記第1画像を前記端末装置の画面に表示する処理は、前記第4画像に含まれる前記機器を識別する情報に対応する前記第1画像を前記端末装置の画面に表示することを特徴とする請求項1または2に記載の表示プログラム。
  4. 前記機器を操作するユーザの操作履歴の情報を基にして前記ユーザの習熟度を判定し、前記習熟度を基にして、前記機器の入力を音声入力に切り替える処理を更に実行することを特徴とする請求項1、2または3に記載の表示プログラム。
  5. 機器の状態を判定可能な前記機器の箇所を示す第1画像を端末装置の画面に表示し、
    前記機器の箇所を撮影範囲に含む撮影装置によって撮影された第2画像を取得し、
    前記第2画像に含まれる前記箇所の特徴に対応付けられる少なくとも一つの第3画像を判定し、判定した前記第3画像を前記端末装置の画面に表示する
    処理をコンピュータが実行することを特徴とする表示方法。
  6. 機器の状態を判定可能な前記機器の箇所を示す第1画像を端末装置の画面に表示する第1表示制御部と、
    前記機器の箇所を撮影範囲に含む撮影装置によって撮影された第2画像を取得し、前記第2画像に含まれる前記箇所の特徴に対応付けられる少なくとも一つの第3画像を判定し、判定した前記第3画像を前記端末装置の画面に表示する第2表示制御部と
    を有することを特徴とする情報処理装置。
JP2019109837A 2019-06-12 2019-06-12 表示プログラム、表示方法および情報処理装置 Pending JP2020201840A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019109837A JP2020201840A (ja) 2019-06-12 2019-06-12 表示プログラム、表示方法および情報処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019109837A JP2020201840A (ja) 2019-06-12 2019-06-12 表示プログラム、表示方法および情報処理装置

Publications (1)

Publication Number Publication Date
JP2020201840A true JP2020201840A (ja) 2020-12-17

Family

ID=73742059

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019109837A Pending JP2020201840A (ja) 2019-06-12 2019-06-12 表示プログラム、表示方法および情報処理装置

Country Status (1)

Country Link
JP (1) JP2020201840A (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007265325A (ja) * 2006-03-30 2007-10-11 Aos Technologies Kk サービス利用者サポートシステム
JP2012220803A (ja) * 2011-04-12 2012-11-12 Sharp Corp ガイドシステム、及びガイドプログラム
JP2013205425A (ja) * 2012-03-27 2013-10-07 Konica Minolta Inc 画像形成装置、携帯端末装置およびプログラム
JP2015052816A (ja) * 2013-09-05 2015-03-19 セイコーエプソン株式会社 情報表示システム、電子機器、情報表示システムの制御方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007265325A (ja) * 2006-03-30 2007-10-11 Aos Technologies Kk サービス利用者サポートシステム
JP2012220803A (ja) * 2011-04-12 2012-11-12 Sharp Corp ガイドシステム、及びガイドプログラム
JP2013205425A (ja) * 2012-03-27 2013-10-07 Konica Minolta Inc 画像形成装置、携帯端末装置およびプログラム
JP2015052816A (ja) * 2013-09-05 2015-03-19 セイコーエプソン株式会社 情報表示システム、電子機器、情報表示システムの制御方法

Similar Documents

Publication Publication Date Title
US11386717B2 (en) Fingerprint inputting method and related device
CN110443110B (zh) 基于多路摄像的人脸识别方法、装置、终端及存储介质
EP3819863A1 (en) Learning data collection device, learning data collection system, and learning data collection method
CN105100461B (zh) 一种移动终端及其实现自动接听的方法
CN111401238B (zh) 一种视频中人物特写片段的检测方法及装置
CN109584219B (zh) 一种摄像装置脏污的检测方法及烹饪设备
JP4074988B2 (ja) 情報処理装置、通信処理装置、および方法、並びにコンピュータ・プログラム
US20160110531A1 (en) Information processing apparatus, terminal apparatus and information processing method
JP6372396B2 (ja) 情報伝達システム
EP3929804A1 (en) Method and device for identifying face, computer program, and computer-readable storage medium
KR102478558B1 (ko) 고객 만족도 조사 수행 시스템
CN107786349B (zh) 一种针对用户账号的安全管理方法及装置
CN111563726A (zh) 企业整改监管方法、装置、设备及计算机可读存储介质
JP2020201840A (ja) 表示プログラム、表示方法および情報処理装置
CN112348077A (zh) 图像识别方法、装置、设备及计算机可读存储介质
CN109688366B (zh) 一种在线会议转移方法、装置及移动终端
CN109547678B (zh) 一种处理方法、装置、设备及可读存储介质
JP2007257040A (ja) バイオメトリクス認証装置およびバイオメトリクス認証システム
CN106713576B (zh) 在联系人信息中区分多号码的方法和装置
CN110087235B (zh) 一种身份认证、认证方式调整的方法及装置
JP2012226085A (ja) 電子機器、制御方法、および制御プログラム
JP6448866B2 (ja) 画像取得システム、画像取得方法及びプログラム
CN109981970B (zh) 一种确定拍摄场景的方法、装置和机器人
CN114342360A (zh) 处理设备、处理系统、处理方法和程序
JPH11305910A (ja) メニュー選択方法及び装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220308

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230124

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230718