JP2013250849A - ガイダンス表示システム、ガイダンス表示装置、ガイダンス表示方法、およびガイダンス表示プログラム - Google Patents

ガイダンス表示システム、ガイダンス表示装置、ガイダンス表示方法、およびガイダンス表示プログラム Download PDF

Info

Publication number
JP2013250849A
JP2013250849A JP2012125907A JP2012125907A JP2013250849A JP 2013250849 A JP2013250849 A JP 2013250849A JP 2012125907 A JP2012125907 A JP 2012125907A JP 2012125907 A JP2012125907 A JP 2012125907A JP 2013250849 A JP2013250849 A JP 2013250849A
Authority
JP
Japan
Prior art keywords
image
guidance
hand
captured image
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012125907A
Other languages
English (en)
Other versions
JP5983053B2 (ja
Inventor
Wataru Uchida
弥 内田
Mitsuharu Nagai
光晴 永井
Takero Hama
健朗 濱
Ayumi Ito
歩 伊藤
Tomoaki Nakajima
智章 中島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2012125907A priority Critical patent/JP5983053B2/ja
Publication of JP2013250849A publication Critical patent/JP2013250849A/ja
Application granted granted Critical
Publication of JP5983053B2 publication Critical patent/JP5983053B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】示画像を見ながら対象物に対する操作を行なう際の操作性を妨げることなく撮影画像とガイダンスとを合成表示するガイダンス表示システムを提供する。
【解決手段】ガイダンス表示システムでは、携帯端末で操作対象の装置であるMFPを撮影し(S2)、その撮影画像を解析することでMFPを特定する(S3)。携帯端末はMFPから状態を取得し(S4,5)、その状態に応じたガイダンス画像の撮影画像に合成するための位置を、操作部位の位置と操作者が手を接近させると推測される位置とに基づいて特定する(S7)。そして、撮影画像にガイダンス画像を合成して得られる表示画面を表示する(S8)。
【選択図】図5

Description

この発明はガイダンス表示システム、ガイダンス表示装置、ガイダンス表示方法、およびガイダンス表示プログラムに関し、特に、撮影画像にガイダンスを合成して表示するガイダンス表示システム、ガイダンス表示装置、ガイダンス表示方法、およびガイダンス表示プログラムに関する。
撮影画像をリアルタイムに表示装置に表示しつつ、当該撮影画像に予め用意されている画像を合成して表示することで、現実の撮影画像上にオブジェクトが重なって見える仮想現実を表示する技術がある。この技術は拡張現実技術(AR:Augmented Reality)と言われる。
特開2010−219879号公報(以下、特許文献1)等において、この技術を利用してカメラ付き携帯端末で撮影した映像に説明画像(ガイダンス)を重ねて表示することでユーザーに説明をわかりやすく提示する技術が提案されている。すなわち、特許文献1では、機器が自身の状態をサーバーに送信し、ユーザーはカメラ付き携帯端末で対象機器に添付されたマーカーから対象機器を識別してサーバーから対象機器の状態に応じたヘルプ情報を取得し、対象機器の映像にヘルプ情報を重畳して表示するシステムを開示している。
また、特開2011−198150号公報(以下、特許文献2)は、撮影画像にエアタグを合成した画像をヘッドマウント型の表示装置で見ながらエアタグに対して操作することで、予め規定された機能を発現させる方法を開示している。
特開2010−219879号公報 特開2011−198150号公報
しかしながら、撮影画像中の操作対象物に説明画像やエアタグが重なって表示されてしまった場合、表示画面を見ながら操作対象物の操作をする際に手元が説明画像やエアタグで隠れてしまい、操作し難くなるという問題がある。
本発明はこのような問題に鑑みてなされたものであって、表示画像を見ながら対象物に対する操作を行なう際の操作性を妨げることなく撮影画像とガイダンスとを合成表示するガイダンス表示システム、ガイダンス表示装置、ガイダンス表示方法、およびガイダンス表示プログラムを提供することを目的としている。
上記目的を達成するために、本発明のある局面に従うと、ガイダンス表示システムは、第1の装置と表示装置とを含んで、表示装置に第1の装置の操作のためのガイダンスを表示するガイダンス表示システムであって、撮影画像を取得するための第1の取得手段と、撮影画像を解析することで含まれる第1の装置を特定するための第1の解析手段と、第1の装置の状態を取得するための第2の取得手段と、第1の装置の状態に応じたガイダンス画像を取得するための第3の取得手段と、撮影画像にガイダンス画像を合成して表示画面を生成し、表示装置に表示するための表示手段とを備える。表示手段は、ガイダンス画像を撮影画像に合成するための位置を特定するための特定手段を含み、特定手段は、撮影画像における、第1の装置の状態から特定される、その状態に対して操作が必要となる部位である操作部位の位置と、操作部位に対して操作者が手を接近させると推測される位置とに基づいて、手を接近させると推測される位置から離れた位置を合成するための位置として特定する。
好ましくは、特定手段は、撮影画像を解析することで撮影画像中の操作者の手の位置を検出するための第2の解析手段を含み、現在設定されている合成するための位置を、撮影画像中の操作者の手の位置との関係に基づいて更新する。
より好ましくは、特定手段は、現在設定されている合成するための位置が撮影画像中の操作者の手の位置に基づいて特定される範囲に含まれない位置となるように更新する。
好ましくは、ガイダンス表示システムは撮影のためのカメラと表示装置とを含んだ携帯端末をさらに備え、携帯端末は、当該携帯端末の携帯状況を検知するためのセンサーをさらに含み、特定手段は、センサーからのセンサー信号に基づいて得られる、携帯端末を把持した操作者が撮影画像において操作部位に対して手を接近させると推測される位置を用いて、合成するための位置を特定する。
より好ましくは、センサーは携帯端末を把持する位置を検知し、特定手段は、センサー信号から携帯端末を把持する手が右手か左手かを特定し、携帯端末を把持する側の手に応じて特定される撮影画像において操作部位に対して手を接近させると推測される位置を用いて、合成するための位置を特定する。
より好ましくは、特定手段は、携帯端末を把持する側と反対側の手の方を撮影画像において操作部位に対して手を接近させると推測される位置として合成するための位置を特定する。
好ましくは、センサーは携帯端末の角度を検知し、特定手段は、センサー信号から携帯端末の第1の装置に対する姿勢を特定し、携帯端末の第1の装置に対する姿勢から特定される撮影画像において操作部位に対して手を接近させると推測される位置を用いて、合成するための位置を特定する。
より好ましくは、特定手段は、カメラの撮影方向が水平方向からなす角度に応じて携帯端末の第1の装置に対する姿勢を特定する。
好ましくは、表示手段は、操作部位の位置と特定される合成するための位置とが所定範囲内となる場合には、撮影画像と、第1の装置の画像にガイダンス画像を合成した画像とを、それぞれ、表示装置の表示画面を二分したそれぞれの画面に並べて表示する。
本発明の他の局面に従うと、ガイダンス表示装置は第1の装置の操作のためのガイダンスを表示するガイダンス表示装置であって、表示装置と、カメラと、第1の装置と通信するための通信装置と、予め装置の状態に応じたガイダンス画像を記憶しておくためのメモリーと、制御装置とを備える。制御装置は、カメラより撮影画像を取得するための第1の取得手段と、撮影画像を解析することで含まれる第1の装置を特定するための解析手段と、第1の装置と通信することによって第1の装置の状態を取得するための第2の取得手段と、第1の装置の状態に応じたガイダンス画像をメモリーから取得するための第3の取得手段と、撮影画像にガイダンス画像を合成して表示画面を生成し、表示装置に表示するための表示手段とを含む。表示手段は、ガイダンス画像を撮影画像に合成するための位置を特定するための特定手段を有し、特定手段は、撮影画像における、第1の装置の状態から特定される、その状態に対して操作が必要となる部位である操作部位の位置と、操作部位に対して操作者が手を接近させると推測される位置とに基づいて、手を接近させると推測される位置から離れた位置を合成するための位置として特定する。
本発明のさらに他の局面に従うと、ガイダンス表示方法は第1の装置の操作のためのガイダンスを、カメラを有するガイダンス表示装置で表示する方法であって、撮影画像を取得するステップと、撮影画像を解析することで含まれる第1の装置を特定するステップと、第1の装置の状態を取得するステップと、第1の装置の状態に応じたガイダンス画像を取得するステップと、撮影画像にガイダンス画像を合成して表示画面を生成し、ガイダンス表示装置に表示するステップとを備える。ガイダンス表示装置に表示するステップは、ガイダンス画像を撮影画像に合成するための位置を特定するステップを含み、合成するための位置を特定するステップでは、撮影画像における、第1の装置の状態から特定される、その状態に対して操作が必要となる部位である操作部位の位置と、操作部位に対して操作者が手を接近させると推測される位置とに基づいて、手を接近させると推測される位置から離れた位置を合成するための位置として特定する。
本発明のさらに他の局面に従うと、ガイダンス表示プログラムは、カメラおよび通信装置を有するガイダンス表示装置に、第1の装置の操作のためのガイダンスを表示する処理を実行させるためのプログラムであって、カメラでの撮影によって撮影画像を取得するステップと、撮影画像を解析することで含まれる第1の装置を特定するステップと、第1の装置と通信することで第1の装置より第1の装置の状態を取得するステップと、予め装置の状態に応じたガイダンス画像を記憶しているメモリーより、第1の装置の状態に応じたガイダンス画像を取得するステップと、撮影画像にガイダンス画像を合成して表示画面を生成し、ガイダンス表示装置に表示するステップとをガイダンス表示装置に実行させる。ガイダンス表示装置に表示するステップは、ガイダンス画像を撮影画像に合成するための位置を特定するステップを含み、特定するステップでは、撮影画像における、第1の装置の状態から特定される、その状態に対して操作が必要となる部位である操作部位の位置と、操作部位に対して操作者が手を接近させると推測される位置とに基づいて、手を接近させると推測される位置から離れた位置を合成するための位置として特定する。
この発明によると、表示画像を見ながら対象物に対する操作を行なう際の操作性を妨げることなく、撮影画像とガイダンスとを合成表示することができる。
実施の形態にかかるガイダンス表示システム(以下、システム)の構成の具体例を示す図である。 システムに含まれる携帯端末の装置構成の具体例を示すブロック図である。 システムに含まれる、操作対象の一例としてのMFP(Multi-Functional Peripheral)のハードウェア構成の具体例を示す図である。 携帯端末の画面表示の具体例を表わした図である。 第1の実施の形態にかかるシステムでの動作概要を表わした図である。 携帯端末に記憶されている、MFPの機種ごとの、状態に応じた説明画像の具体例を表わした図である。 図5のステップS8での表示画面の具体例を表わした図である。 図5のステップS10での、説明画像を合成する位置の更新を説明するための図である。 図5のステップS10での、説明画像を合成する位置の更新を説明するための図である。 図5のステップS10での、説明画像を合成する位置の更新を説明するための図である。 図5のステップS10での、説明画像を合成する位置の更新の他の方法を説明するための図である。 図5のステップS10での、説明画像を合成する位置の更新の他の方法を説明するための図である。 第1の実施の形態にかかる携帯端末の機能構成の具体例を示すブロック図である。 第1の実施の形態にかかる携帯端末での動作の流れの具体例を表わすフローチャートである。 第1の実施の形態にかかる携帯端末での動作の流れの具体例を表わすフローチャートである。 第1の実施の形態にかかる携帯端末での動作の流れの他の例を表わすフローチャートである。 変形例にかかる携帯端末での表示の例を表わした図である。 第2の実施の形態にかかる携帯端末での表示の具体例を表わした図である。 第2の実施の形態にかかる携帯端末のセンサーの具体例を表わした図である。 第2の実施の形態にかかる携帯端末での表示の具体例を表わした図である。 第2の実施の形態にかかるシステムでの動作概要を表わした図である。 第2の実施の形態にかかる携帯端末の機能構成の具体例を示すブロック図である。 第2の実施の形態にかかる携帯端末での動作の流れの具体例を表わすフローチャートである。 第3の実施の形態にかかる携帯端末での表示の具体例を表わした図である。 第3の実施の形態にかかる携帯端末の機能構成の具体例を示すブロック図である。 第3の実施の形態にかかるシステムでの動作概要を表わした図である。 第3の実施の形態にかかる携帯端末での動作の流れの具体例を表わすフローチャートである。
以下に、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品および構成要素には同一の符号を付してある。それらの名称および機能も同じである。
<システム構成>
図1は、本実施の形態にかかるガイダンス表示システム(以下、システム)の構成の具体例を示す図である。
図1を参照して、システムは、ガイダンス表示装置としての携帯端末100と、操作対象の一例としてのMFP(Multi-Functional Peripheral)200とを含む。
携帯端末100とMFP200とは相互に通信可能である。その通信は無線通信であって、赤外線通信やBluetooth(登録商標)などどのようなものであってもよい。
携帯端末は、撮影機能、表示機能、および通信機能を有するものであればどのような装置であってもよい。たとえば、携帯電話機、PDA(Personal Digital Assistants)、文書閲覧装置、小型ノートパソコン(パーソナルコンピューター)などであってもよいし、ヘッドマウンテン型表示装置などのユーザーの体または衣服の一部に装着し、見ながら作業可能なものであってもよい。
操作対象の装置はMFPなどの画像形成装置に限定されず、後述する操作必要箇所を検知する機能および通信機能を有するものであればどのような装置であってもよい。
<装置構成>
図2は、携帯端末100の装置構成の具体例を示すブロック図である。
図2を参照して、携帯端末100は、全体を制御するための演算装置であるCPU(Central Processing Unit)10と、CPU10で実行されるプログラムなどを記憶するためのROM(Read Only Memory)11と、CPU10でプログラムを実行する際の作業領域として機能するためのRAM(Random Access Memory)12と、電話帳データなどを記憶するためメモリー13と、情報を表示するための表示装置であり、かつ、当該携帯端末100に対する操作入力を受け付けるための入力装置でもあるタッチパネルを含んだ操作パネル14と、カメラ15と、各種センサー16と、MFP200との間の無線通信を制御するための通信コントローラー17とを含む。センサー16については後述する。
図3は、操作対象の一例としてのMFP200のハードウェア構成の具体例を示す図である。
図3を参照して、MFP200は、全体を制御するための演算装置であるCPU20と、CPU20で実行されるプログラムなどを記憶するためのROM21と、CPU10でプログラムを実行する際の作業領域として機能するためのRAM22と、画像データ等を保存するためのメモリー23と、図示しない原稿台に載置された原稿を光学的に読み取って画像データを得るためのスキャナー24と、画像データを印刷用紙上に固定するためのプリンター25と、情報を表示したり当該MFP200に対する操作入力を受け付けたりするためのタッチパネルを含んだ操作パネル26と、MFP200の状態を検出するためのセンサー27と、携帯端末100との間の無線通信を制御するための通信コントローラー28とを含む。
センサー27としては、たとえば、トナー量残量やトナー切れ、用紙切れを検出するためのセンサーや、各部のジャム(紙詰まり)や温度異常や動作異常等を検出するためのセンサーや、印刷用紙の排紙トレーへの排出を検出するためのセンサー、などが該当する。
[第1の実施の形態]
<動作概要>
本実施の形態にかかるシステムでは、携帯端末100で操作対象の装置であるMFP200を撮影すると、携帯端末100の操作パネル14にその撮影画像と共にMFP200に対する操作を説明(ガイダンス)するための画像(以下、説明画像)が重畳して表示される。
図4は、携帯端末100の画面表示の具体例を表わした図である。
図4を参照して、携帯端末100でMFP200を撮影すると、MFP200の撮影画像の操作対象の部位(以下、操作部位)近傍に、必要とする操作の内容を表わした説明画像が重ねて表示される。図4の表示画面でMFP200を見ることによって、あたかもMFP200自体に操作の説明が付されているように見える。その画面を見ながらMFP200を操作することで、操作内容を確認しながら操作でき、操作性が向上する。
図4の例では、操作者が携帯端末100の操作パネル14に表示された画面を見ながらMFP200の操作を行なっている様子がさらに携帯端末100のカメラ15で撮影されて、操作パネル14に表示されている。動画、または所定の時間間隔で得られるリアルタイムの撮影画像上に説明画像が重ねて表示されると、操作者は携帯端末100の表示された操作部位と自身の手とを見ながら対象の装置の操作を行なうことができる。
しかしながら、このとき、説明画像が操作者の手元に重ねて表示されると手元が説明画像で隠れてしまい、表示画面を見ながら操作することが難しくなる。また、操作者が手を伸ばす先に説明画像があってもその先の作業が難しくなる。
そこで、本実施の形態にかかる携帯端末100では、表示画面を見ながら装置の操作をする際に、表示画面上において操作者の手元の表示を妨げないように説明画像を表示する。
図5は、該システムでの動作概要を表わした図である。
図5を参照して、携帯端末においてガイダンス表示用のアプリケーション(プログラム)の開始が指示されると、該アプリケーションが起動し(ステップS1)、カメラでの撮影操作が行なわれると、その指示に応じて撮影が開始される(ステップS2)。ここでの撮影は所定タイミングでの連続的な撮影や動画の撮影である。
携帯端末は、撮影画像を解析することで操作対象の情報として機種を特定する(ステップS3)。ここでの特定の方法としては、MFPの機種を表わす文字やマークなどの画像を予めテンプレートとして記憶しておき、撮影画像の各領域を当該テンプレートを用いてマッチングすることで特定する方法が挙げられる。その他、後述するMFPの状態情報を得るときと同様に、MFPに対して機種情報の送信を要求してもよい。
次に、携帯端末は、MFPに対して状態情報の送信を要求し(ステップS4)、MFPはその要求に応じて、センサーでの検出結果等に基づく状態情報を携帯端末に対して送信する(ステップS5)。ここでの状態情報とは、MFPが操作の必要な状態にあるときにその状態を表わした情報を指し、具体的には、紙切れや紙詰まり、トナー切れなどのトラブルが発生した状態や、コピーやスキャンなどの機能が選択された場合に操作画面で操作の必要が生じた状態などが該当する。
携帯端末のメモリーには、予め、MFPの機種ごとに、状態に応じた説明画像が記憶されている。
図6は、携帯端末に記憶されている、MFPの機種ごとの、状態に応じた説明画像の具体例を表わした図である。すなわち、図6を参照して、携帯端末には、MFPの機種ごとに、用紙切れ、用紙詰まり、トナー切れなどのトラブルに対処するための操作や、コピー操作、スキャン操作などの画面操作が必要な状態ごとに、その操作の内容を説明するための説明画像が記憶されている。
たとえば用紙切れの場合には、用紙のなくなったトレーを示すと共に、そのトレーに必要な用紙サイズを示して、補充を促すメッセージを表示する画像が該当する。また、コピー操作の場合には、用紙サイズやカラーの選択などを促すメッセージを表示する画像が該当する。
携帯端末はMFPの状態に応じた説明画像を特定し、読み出す(ステップS6)。
なお、携帯端末は予め状態ごとに操作の内容自体を記憶しておき、MFPから状態情報を取得するたびに、予め記憶している必要な操作の内容に基づいて説明画像を生成するようにしてもよい。また、図示しないサーバーなどの外部の記憶装置に説明画像が記憶されており、携帯端末は必要な説明画像を外部の記憶装置から取得してもよい。
次に、携帯端末は撮影画像を解析することで説明画像を合成する位置を特定し(ステップS7)、その位置に説明画像を合成し(ステップS8)、画面を表示する。ステップS7での説明画像を合成する位置の特定方法については後述する。
携帯端末は、その後、アプリケーションの終了が指示されるまで、連続して入力される撮影画像または動画であるリアルタイムの撮影画像を所定のタイミングで解析してその画像中の操作者の手を検出し、その位置を特定する(ステップS9)。そして、その位置に基づいて説明画像の表示位置を更新し(ステップS10)、更新後の位置に説明画像を合成して(ステップS11)、画面を表示する。ステップS10での説明画像を合成する位置の更新方法については後述する。
図7は、上記ステップS8での表示画面の具体例を表わした図である。
携帯端末は、好ましくは、予め機種ごとに状態に応じた操作部位を記憶しておき、上記ステップS7では、MFPの状態に応じた操作部位と、その位置に対して操作者が手を接近させると推測される位置とに基づいて、説明画像を合成する位置を特定する。すなわち、携帯端末は操作部位の位置を撮影画像上で特定し、その位置を操作する際に邪魔にならない位置を合成する位置として特定する。
図7の例はMFPの手差しトレーの用紙切れが発生したときの表示画面の例であって、操作部位である手差しトレーが撮影画像において右側に位置している。この場合、操作者が手を撮影画像の右側から接近させると推測される。そこで、携帯端末では撮影画像上の右側から離れた位置を説明画像の表示位置と特定し、その位置に合成する。図7では、撮影画像の左側が説明画像の表示位置と特定されている例が表わされている。その他、上側、下側、などであってもよい。
図8〜図10は、上記ステップS10での、説明画像を合成する位置の更新を説明するための図である。
図8の表示画面では、撮影画像にMFPに対して操作者が伸ばした手が映り込んでいる。携帯端末は撮影画像を解析することでこの撮影者の手を撮影画像から検出し、MFPに対する操作者の手の位置を特定する。手の検出は、一例として、撮影画像から肌色領域を検出することで実現されてもよいし、指輪や爪の画像等、手を表わすマーカーを予め設定しておき、そのマーカーを検出することで実現されてもよい。
また、携帯端末では、MFPからの状態情報からMFPの操作部位が特定されている。そこで、携帯端末は、特定された操作者の手の位置および操作部位より、操作者が動線とする手の移動範囲を予測する。この範囲を、以下、予測動線範囲とも称する。
図8の例では、一例として、操作部位と操作者の手の位置とをそれぞれ焦点とし、この焦点間距離に対して予め規定された比率の長さの長軸、短軸で定義される楕円を予測動線範囲とした例が示されている。もちろん、予測動線範囲は楕円に限定されず、矩形や、丸形などであってもよいし、最も小さい範囲として、操作部位と操作者の手の位置とを結んだ線分(予測動線)であってもよい。
携帯端末は図8に表わされたように撮影画像において予測動線範囲を特定した上で、図9に表わされたように、現在の説明画像の表示位置と比較して、それらが重なっていないかを確認する。図9の例では、予測動線範囲に説明画像の一部が重なっているため、携帯端末は、図10に表わされたように、説明画像の表示が予測動線範囲外となるように表示位置を更新する。
なお、上記ステップS10での、説明画像を合成する位置の更新の方法は上述の方法に限定されるものではない。ここでの更新方法は、表示画面において操作者の手元が説明画像で隠れないように説明画像の表示位置を更新できればどのような方法であってもよい。
図11および図12は、上記ステップS10での、説明画像を合成する位置の更新の他の方法を説明するための図である。
図11を参照して、この場合、携帯端末は、撮影画像上の操作者の手の位置と説明画像の表示位置との間の距離dを算出する。携帯端末は、予め操作者の手の位置と説明画像の表示位置との間の距離のしきい値を記憶しておき、距離dがしきい値よりも小さくなった場合、すなわち、操作者の手が説明画像の表示にしきい値よりも接近したことが検出された場合に、操作者の手の移動に伴って説明画像によって隠れる可能性があるものとして、図12に表わされたように、距離dがしきい値を超える位置に説明画像の表示位置を更新する。
<機能構成>
図13は、携帯端末100において上記動作を行なうための機能構成の具体例を示すブロック図である。図13の各機能は、携帯端末100のCPU10がROM11に記憶されているプログラム(アプリケーション)を読み出してRMA23上に展開しつつ実行することで、主にCPU10に形成されるものである。しかしながら、少なくとも一部が、図2に表わされたハードウェア構成によって実現されてもよい。
図13を参照して、メモリー13には、MFPの機種ごとの情報として、上述のテンプレートとして用いられるMFPの機種を表わす文字やマークなどの画像や、状態ごとの操作部位などを記憶するための記憶領域である機種情報記憶部131と、図6に表わされたような機種ごとの状態に応じた説明画像を記憶するための記憶領域である説明画像記憶部132とが含まれる。
さらに図13を参照して、CPU10は、操作パネル14での指示に応じた操作信号の入力を受け付けるための指示入力部101と、撮影を指示する操作信号である場合に、その指示に応じてカメラ15から撮影画像を取得するための画像取得部102と、撮影画像を解析するための解析部103と、MFPと通信することでMFPから状態情報を取得するための状態取得部104と、操作対象のMFPとそのMFPの状態とから表示する説明画像を特定するための画像特定部105と、解析結果に基づいて説明画像の表示位置を特定するための表示位置特定部106と、撮影画像の、特定された位置に説明画像を合成するための合成部107と、合成された画像を操作パネル14に表示する処理を行なうための表示部108とを含む。
解析部103は、さらに、撮影画像を解析することでMFPの機種を特定するための機種特定部1031と、機種および状態からMFPの操作部位を特定するための操作部位特定部1032と、撮影画像を解析することで操作者の手の位置を特定するための手の位置特定部1033と、操作部位および操作者の手の位置から上述の予測動線範囲を特定するための動線範囲特定部1034とを含む。
<動作フロー>
図14および図15は、第1の実施の形態にかかる携帯端末100での動作の流れの具体例を表わすフローチャートである。図14および図15のフローチャートに表わされた動作は、携帯端末100がアプリケーションの開始の指示を受け付けることによって開始される動作であって、CPU10がROM11に記憶されているプログラムを読み出してRMA23上に展開しつつ実行し、図13の各機能を発揮させることによって実現される。
図14を参照して、撮影の開始が指示されると(ステップS101でYES)、ステップS103でCPU10は撮影画像入力を開始する。
ステップS105でCPU10は撮影画像を解析することで、操作対象のMFPの機種を特定する。また、CPU10は、操作対象のMFPに対して状態情報の送信を要求する(ステップS107)。
MFPから状態情報を受信すると(ステップS109でYES)、ステップS111でCPU10は、MFPの状態および上記ステップS105で特定された機種に基づいて、表示する説明画像を特定する。また、ステップS113で説明画像の表示位置を特定する。ここでは、図7を用いて説明されたように、好ましくは、操作部位を示す位置であって、その位置を操作する際に邪魔にならない位置を表示位置として特定する。
CPU10は、特定した位置に説明画像が表示されるように撮影画像のその位置に説明画像を合成し(ステップS115)、合成された画像を操作パネル14に表示する(ステップS117)。
次に、図15を参照して、CPU10は、所定間隔で、または連続して撮影画像を入力し(ステップS119)、所定のタイミングで撮影画像を解析して操作者の手を検出することで、撮影画像中の操作者の手の位置を特定する(ステップS121)。CPU10は、特定した操作者の手の位置と上記ステップS113で特定された説明画像の表示位置とを比較することで操作者の手元を隠す位置に説明画像が表示されるか否かを判断する。この判断の一つの方法として、CPU10は図8のように予測動線範囲を特定し、その範囲に説明画像の表示位置が重なるか否かを判断する。
その結果、上記ステップS119で入力された撮影画像において、現在設定されている説明画像の表示位置が予測動線範囲内に重なる場合、すなわち、現在の説明画像の表示位置が操作者の手元を隠す位置である場合(ステップS123でYES)、ステップS125でCPU10は説明画像の表示位置を更新し、ステップS127で更新後の位置に説明画像を合成して(ステップS127)、合成された画像を操作パネル14に表示する(ステップS129)。
そうでない場合、すなわち、現在の説明画像の表示位置が操作範囲内にない場合には(ステップS123でNO)、上記ステップS125をスキップして表示位置を更新することなく、先に特定した表示位置に表示されるよう上記ステップS119で入力された撮影画像に説明画像を合成して(ステップS127)、合成された画像を操作パネル14に表示する(ステップS129)。
上記ステップS119〜S129はアプリケーションの終了が指示されるまで(ステップS131でON)、所定の間隔で繰り返される。これにより、操作パネル14に表示される撮影画像は概ねリアルタイムに操作対象の装置と操作者の手とを撮影した画像に更新され、さらに、操作者の手の位置に応じて説明画像の表示位置が更新される。
アプリケーションの終了が指示されると(ステップS131でYES)、一連の動作を終了する。
なお、説明画像の表示位置が操作者の手元を隠す位置であるか否かを判断する際に図11および図12の方法で判断する場合には、図15の動作に替えて図16の動作が行なわれる。すなわち、図16を参照して、上記ステップS123の動作に替えてステップS151でCPU10は特定した手の位置と現在設定されている説明画像の表示位置との間の距離dを算出し、その距離dと予め記憶しているしきい値とを比較する。
そして、距離dがしきい値よりも小さい場合には(ステップS153でYES)、ステップS125でCPU10は説明画像の表示位置を更新し、ステップS127で更新後の位置に説明画像を合成して(ステップS127)、合成された画像を操作パネル14に表示する(ステップS129)。
そうでない場合、すなわち、距離dがしきい値以上である場合には(ステップS153でNO)、上記ステップS125をスキップして表示位置を更新することなく、先に特定した表示位置に表示されるよう上記ステップS119で入力された撮影画像に説明画像を合成して(ステップS127)、合成された画像を操作パネル14に表示する(ステップS129)。以降、同様に動作する。
<第1の実施の形態の効果>
以上の動作が第1の実施の形態にかかるシステムにおいて行なわれることで、撮影画像に説明画像を合成して生成された表示画面において、操作者の手に重ならないような位置に説明画像が表示される。そのため、表示画面で操作部位と手元とを見ながら操作する際に手元を隠すことなく説明画像が表示されるため、手元と説明画像との両方を見ることができる。
<変形例>
なお、説明画像が操作部位の位置を示すために装置と重ねて表示されるものであるなど表示位置を変更できない場合であって、さらに、操作する手が操作部位付近にある(所定範囲内にある)など、操作する手の位置から説明画像の表示位置を離すことができない場合には、図17に表わされたように、表示画面を二分して、一方の画面(図17の左側の画面)に操作対象の装置の画像と説明画像とを合成して表示し、他方の画面(図17の右側の画面)に説明画像を合成せずに撮影画像を表示するようにしてもよい。これは、以降の例でも同様である。
説明画像ごとに、表示位置を操作部位から離すことが可能か否かを表わす情報(フラグ等)を付加しておくことで、携帯端末100のCPU10は、表示する説明画像の表示位置を更新可能であるか否かを判断することが可能となる。
図17に示された説明画像はトナー切れに対する操作内容を説明する画像であって、トナーを交換するためのカバー(カバー1)を開ける様子をMFP200に重ねて表示するものである。そのため、その画像は操作部位であるカバーの位置である必要があるため、当該説明画像に対しては表示位置を操作部位から離すことが不可という情報が付加されている。
表示している説明画像にこの情報が付加されており、かつ、操作者の手の位置に基づいて表示位置を更新する必要が生じた場合、携帯端末100のCPU10は、図17のような表示画面を表示する。
図17の左側の画像は、撮影画像からMFP200を切り出して得られる画像であってもよいし、予め機種ごとにMFPの立体画像のデータを記憶しておき、上記ステップS105で特定された機種の立体画像のデータを利用し、撮影画像を解析して得られる携帯端末100とMFP200との位置関係に基づいて該立体画像を変形させることで得られる画像であってもよい。携帯端末100とMFP200との位置関係は、たとえば撮影画像中のMFPのサイズやマーカーとする画像の傾きなどを解析することで特定することができる。
このようにすることで、操作性と、説明画像の見やすさとを両立することが可能となる。
[第2の実施の形態]
<動作概要>
第2の実施の形態にかかるシステムでは、操作部位に対して操作者が手を接近させる位置の推測をより正確にするために、操作者の当該携帯端末100を持つ手(以下、持ち手とも称する)を利用する。すなわち、第2の実施の形態にかかるシステムでは、操作者の当該携帯端末100を持つ手(以下、持ち手とも称する)を検出し、持ち手と反対側の手を操作する側の手と推測して、表示画面上において操作する側の手を接近させる際にその手元の表示を妨げないように説明画像を表示する。
図18は、第2の実施の形態にかかる携帯端末100での表示の具体例を表わした図である。図18においては、持ち手が左手であるために右手が操作する側の手と推測される。この場合、撮影画像において右側が操作者が手を接近させると推測される位置となり、装置の左側に説明画像が表示されている。これにより、装置に対して右側から接近する右手の表示が妨げられない。
この表示を実現するために、第2の実施の形態にかかる携帯端末100は、図19に表わされたように、センサー16として操作者の持ち手を検出するためのセンサー16Aが配置される。センサー16Aには、温度センサー、圧力センサー、ひずみセンサー、湿度センサー、またはこれらのうちのいくつかのセンサーの組み合わせ、などが該当する。
センサー16Aは携帯端末100をユーザーが持つ位置に設置される。一例として、図19に表わされたように、矩形の携帯端末100の四隅付近に設けられる。他の例として、周囲すべてに設けられてもよいし、左右の辺の中央付近に設けられてもよい。また、小型のノートパソコンである場合にはキーボードが設けられた匡体の底面の左右や左右の辺などに設けられてもよい。
図20のように操作者が携帯端末100を右手で把持した場合、センサー16Aのセンサー信号によって持ち手が右手であることが認識される。この場合には、操作のために装置の左側から操作者の左手が伸ばされるものと推測される。そのため、撮影画像において左側が操作者が手を接近させると推測される位置となり、図20に表わされたように、装置の右側に説明画像を表示する。
図21は、第2の実施の形態にかかるシステムでの動作概要を表わした図である。
図21を参照して、第2の実施の形態にかかるシステムでは、図5で表わされた動作と同じステップS1〜S6の動作が行なわれて説明画像が特定されると共に、ステップS6−1で、携帯端末において持ち手が特定される。たとえば図20の場合には右手と特定される。
携帯端末は、撮影画像の解析とMFPからの状態情報とで得られたMFPの状態に応じた操作部位と、上記ステップS6−1で特定された持ち手とに基づいて、説明画像の表示位置を特定する(ステップS7’)。たとえば図20の例では、MFPのトレー1で用紙切れが発生し、かつ、右手で把持されているため、トレー1付近であって、左手に重ならない装置の右側に説明画像を表示すると特定する。
以降、第1の実施の形態にかかるシステムと同様の動作がなされる。
<機能構成>
図22は、携帯端末100において上記動作を行なうための機能構成の具体例を示すブロック図である。図22の各機能もまた、携帯端末100のCPU10がROM11に記憶されているプログラム(アプリケーション)を読み出してRMA23上に展開しつつ実行することで、主にCPU10に形成されるものである。
図22を参照して、第2の実施の形態にかかる携帯端末100は、図13に表わされた第1の実施の形態にかかる携帯端末100の機能に加えて、CPU10に、センサー16Aのセンサー信号に基づいて持ち手を特定するための持ち手特定部109がさらに含まれる。
持ち手特定部109は、予め表示画面の向きを把握しておき、その向きに対するセンサー信号に表わされた手の位置に応じて、持ち手が右手であるか左手であるかを特定する。
第2の実施の形態において、表示位置特定部106はさらに持ち手にも応じて説明画像の表示位置を特定する。
<動作フロー>
図23は第2の実施の形態にかかる携帯端末100での動作の流れの具体例を表わすフローチャートであって、第1の実施の形態にかかる携帯端末100での図14で表わされた動作に相当する動作を表わしたものである。以降の動作は図15に表わされた動作と同様であるため省略する。
図23を参照して、第2の実施の形態にかかる携帯端末100では、CPU10は図14のステップS101〜S111までの動作を実行して説明画像を特定し、さらに、ステップS201でCPU10は、センサー16Aのセンサー信号に基づいて持ち手を特定する。
CPU10は、操作部位とは異なる位置であって、かつ、上記ステップS201で特定された持ち手とは逆側の手を装置に伸ばすときに手元に重ならないように、その逆側を説明画像の表示位置と特定する(ステップS113’)。以降、第1の実施の形態にかかる携帯端末100と同様の動作が行なわれる。
なお、上の例では、携帯端末100がセンサー16Aのセンサー信号を用いて持ち手を特定することで操作する側の手を推測するものとしているが、センサー16Aを用いる方法以外の方法であってもよい。
他の例として、たとえば、予め操作する側の手の設定を携帯端末100が受け付けるようにしてもよいし、撮影画像を解析して撮影画像中の操作者の手を検出し、その手が右手であるか左手であるかを画像解析によって特定してもよい。これらの場合であっても、上と同様にして、操作する手の側と反対側に説明画像を表示するようにすればよい。
<第2の実施の形態の効果>
以上の動作が第2の実施の形態にかかるシステムにおいて行なわれることで、携帯端末100を一方の手で把持して携帯端末100の表示画面を見ながら他方の手を操作対象のMFP200に伸ばして操作する場合に、その手元を隠すことなく説明画像が表示されているため、手元と説明画像との両方を見ながら操作対象の装置に手を伸ばすことができる。
[第3の実施の形態]
<動作概要>
第3の実施の形態にかかるシステムでは、操作部位に対して操作者が手を接近させる位置の推測をより正確にするために、操作者の操作対象とする装置に対する姿勢を利用する。すなわち、第3の実施の形態にかかるシステムでは、操作者の操作対象とする装置に対する姿勢を検出し、その姿勢に基づいて操作部位に対して操作者が手を接近させる位置を推測して、表示画面上において操作する側の手元の表示を妨げないように説明画像を表示する。
図24は、第3の実施の形態にかかる携帯端末100での表示の具体例を表わした図である。図24においては、携帯端末100がMFP200の斜め上方向に位置し、その位置からMFP200を見下ろす向きで撮影されている。この場合、操作者はMFP200の手前側に立って見下ろしていると考えられるため、撮影画像の下側が操作者が手を接近させると推測される位置となる。そこで、装置の下側から接近する手の表示を妨げないように、装置の上側に説明画像が表示されている。
姿勢を特定する方法の一例として、携帯端末100自身の角度(より正確には、携帯端末100に固定されているカメラ15の撮影方向の角度)を利用する方法が挙げられる。携帯端末100自身の角度は加速度センサーを用いることで検知可能である。そのため、この場合、携帯端末100はセンサー16として加速度センサー16B(図26)を含む。
携帯端末100の俯角が大きい場合、すなわち、携帯端末100に固定されているカメラ15の撮影方向の水平方向からなす角度が負であり、かつ、負の値である所定のしきい値TH1よりも小さい場合には、図24に表わされたようにMFP200を見下ろす姿勢であって、携帯端末100がMFP200に対して斜め上方向に位置していると考えられる。
一方、俯角も仰角も小さい場合、すなわち、携帯端末100に固定されているカメラ15の撮影方向の水平方向からなす角度が上記しきい値TH1よりも大きく、かつ、正の値である所定のしきい値TH2よりも小さい場合、つまり、0を挟んだ所定の範囲内(TH1〜TH2)にある場合には、MFP200を水平に近い角度で見る姿勢であって、携帯端末100がMFP200に対して真横に近い方向に位置していると考えられる。
また、仰角が大きい場合、すなわち、携帯端末100に固定されているカメラ15の撮影方向の水平方向からなす角度が正であり、かつ、上記しきい値TH2よりも大きい場合には、MFP200を見上げる姿勢であって、携帯端末100がMFP200に対して斜め下方向に位置していると考えられる。
携帯端末100のMFP200に対する姿勢が斜め上から見下ろす姿勢の場合、先述のように操作者はMFP200の手前側に立って操作部位を上から見下ろしていると考えられるため、撮影画像の下側が操作者が手を接近させると推測される位置となる。そこで、このような姿勢であると特定された場合には、図24に表わされたように説明画像の表示位置を撮影画像の下側から離れた位置とする。
携帯端末100のMFP200に対する姿勢が真横に近い位置から見る姿勢の場合、操作者は操作部位の真横にいると考えられるため、撮影画像の横側が操作者が手を接近させると推測される位置となる。そこで、このような姿勢であると特定された場合には、説明画像の表示位置を撮影画像の横側から離れた位置とする。
携帯端末100のMFP200に対する姿勢が斜め下から見上げる姿勢の場合、先述のように操作者はMFP200の手前側で操作部位を下から見上げていると考えられるため、撮影画像の上側が操作者が手を接近させると推測される位置となる。そこで、このような姿勢であると特定された場合には、説明画像の表示位置を撮影画像の上側から離れた位置とする。
図25は、第3の実施の形態にかかるシステムでの動作概要を表わした図である。
図25を参照して、第3の実施の形態にかかるシステムでは、図5で表わされた動作と同じステップS1〜S6の動作が行なわれて説明画像が特定されると共に、ステップS6−2で、携帯端末において操作対象のMFPに対する姿勢が特定される。たとえば図24の場合には携帯端末100のMFP200に対する姿勢が斜め上から操作部位を見下ろす姿勢と特定される。
携帯端末は、撮影画像の解析とMFPからの状態情報とで得られたMFPの状態に応じた操作部位と、上記ステップS6−2で特定された携帯端末の操作対象のMFPに対する姿勢とに基づいて、説明画像の表示位置を特定する(ステップS7’’)。たとえば図24の例では、MFPの操作パネルでの操作が要求されており、かつ、MFPの上方から操作部位である操作パネルを見下ろす姿勢であるため、操作パネル付近であって、撮影画像の下側と推測される操作者が手を接近させる位置と離れた位置である撮影画像の上方に説明画像を表示すると特定する。
以降、第1の実施の形態にかかるシステムと同様の動作がなされる。
<機能構成>
図26は、携帯端末100において上記動作を行なうための機能構成の具体例を示すブロック図である。図26の各機能もまた、携帯端末100のCPU10がROM11に記憶されているプログラム(アプリケーション)を読み出してRMA23上に展開しつつ実行することで、主にCPU10に形成されるものである。
図26を参照して、第3の実施の形態にかかる携帯端末100は、図13に表わされた第1の実施の形態にかかる携帯端末100の機能に加えて、CPU10に、加速度センサー16Bのセンサー信号に基づいて当該携帯端末100の姿勢を特定するための姿勢特定部110がさらに含まれる。
姿勢特定部110は、予め上述のしきい値TH1,TH2を記憶し、センサー信号から得られる携帯端末100の角度とこれらしきい値とを比較することで携帯端末100のMFP200に対する姿勢を特定する。
第3の実施の形態において、表示位置特定部106はさらに携帯端末100のMFP200に対する姿勢にも応じて説明画像の表示位置を特定する。
<動作フロー>
図27は第3の実施の形態にかかる携帯端末100での動作の流れの具体例を表わすフローチャートであって、第1の実施の形態にかかる携帯端末100での図14で表わされた動作に相当する動作を表わしたものである。以降の動作は図15に表わされた動作と同様であるため省略する。
図27を参照して、第3の実施の形態にかかる携帯端末100では、CPU10は図14のステップS101〜S111の動作を実行して説明画像を特定し、さらに、ステップS301でCPU10は、加速度センサー16Bのセンサー信号に基づいてMFP200に対する姿勢を特定する。
CPU10は、操作部位とは異なる位置であって、かつ、上記ステップS301で特定されたMFP200に対する姿勢に対応付けて予め規定されている位置を、説明画像の表示位置と特定する(ステップS113’’)。以降、第1の実施の形態にかかる携帯端末100と同様の動作が行なわれる。
なお、上の例では、携帯端末100が自身の角度を利用してMFP200に対する姿勢を特定して操作者が手を接近させると推測される位置を推測するものとしているが、角度を利用する方法以外の方法であってもよい。
他の例として、たとえば、予め操作者の手を接近させる位置の設定を携帯端末100が受け付けるようにしてもよいし、撮影画像を解析して撮影画像中のMFPのサイズやマーカーとする画像の傾きや基準画像からの変形度合いを算出することで特定してもよい。これらの場合であっても、上と同様にして、MFP200に対する姿勢に対応付けて予め規定されている位置に説明画像を表示するようにすればよい。
さらに、第2の実施の形態に表わされた動作と、第3の実施の形態に表わされた動作とを組み合わせてもよい。すなわち、携帯端末100の持ち手と、MFP200に対する姿勢との両方を考慮して説明画像の表示位置を特定するようにしてもよい。
<第3の実施の形態の効果>
以上の動作が第3の実施の形態にかかるシステムにおいて行なわれることで、携帯端末100でMFP200を撮影してその画面を見ながら操作対象のMFP200に手を伸ばして操作する場合に、その手元を隠すことなく説明画像が表示されているため、手元と説明画像との両方を見ながら操作対象の装置に手を伸ばすことができる。
<変形例>
なお、以上の例では、表示画面の生成に関するすべての処理を携帯端末100で行なうものとしているが、すべての処理、または少なくとも一部の処理がMFP200で行なわれてもよい。
すなわち、MFP200に説明画像が記憶されていて、MFP200が自身の状態に応じて適切な説明画像を特定して携帯端末100に送信してもよいし、携帯端末100から撮影画像を取得して、上述の方法で表示位置を特定した上で説明画像を合成して表示画面を生成し、携帯端末100に送信してもよい。
その際に、さらに、携帯端末100から持ち手を特定する情報やMFP200に対する姿勢を特定する情報を得てもよい。また、MFP200が通信機能やセンサーなどを利用したり携帯端末100での撮影画像を画像解析したりして携帯端末100の姿勢を特定して表示位置の特定に用いてもよい。
また、図1には表わされていないものの、本システムにサーバーが含まれる場合、該サーバーが上記動作を行なうようにしてもよい。
さらに、携帯端末100やMFP200や図示しないサーバーに上述の動作を行なわせるためのプログラム(アプリケーション)を提供することもできる。このようなプログラムは、コンピューターに付属するフレキシブルディスク、CD−ROM(Compact Disk-Read Only Memory)、ROM、RAMおよびメモリーカードなどのコンピューター読み取り可能な記録媒体にて記録させて、プログラム製品として提供することもできる。あるいは、コンピューターに内蔵するハードディスクなどの記録媒体にて記録させて、プログラムを提供することもできる。また、ネットワークを介したダウンロードによって、プログラムを提供することもできる。
なお、本発明にかかるプログラムは、コンピューターのオペレーティングシステム(OS)の一部として提供されるプログラムモジュールのうち、必要なモジュールを所定の配列で所定のタイミングで呼出して処理を実行させるものであってもよい。その場合、プログラム自体には上記モジュールが含まれずOSと協働して処理が実行される。このようなモジュールを含まないプログラムも、本発明にかかるプログラムに含まれ得る。
また、本発明にかかるプログラムは他のプログラムの一部に組込まれて提供されるものであってもよい。その場合にも、プログラム自体には上記他のプログラムに含まれるモジュールが含まれず、他のプログラムと協働して処理が実行される。このような他のプログラムに組込まれたプログラムも、本発明にかかるプログラムに含まれ得る。
提供されるプログラム製品は、ハードディスクなどのプログラム格納部にインストールされて実行される。なお、プログラム製品は、プログラム自体と、プログラムが記録された記録媒体とを含む。
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
10,20 CPU、11,21 ROM、12,22 RAM、13,23 メモリー、14,26 操作パネル、15 カメラ、16,16A センサー、16B 加速度センサー、17,28 通信コントローラー、24 スキャナー、25 プリンター、100 携帯端末、101 指示入力部、102 画像取得部、103 解析部、104 状態取得部、105 画像特定部、106 表示位置特定部、107 合成部、108 表示部、109 持ち手特定部、110 姿勢特定部、131 機種情報記憶部、132 説明画像記憶部、1031 機種特定部、1032 操作部位特定部、1033 手の位置特定部、1034 動線範囲特定部。

Claims (12)

  1. 第1の装置と表示装置とを含んで、前記表示装置に前記第1の装置の操作のためのガイダンスを表示するガイダンス表示システムであって、
    撮影画像を取得するための第1の取得手段と、
    前記撮影画像を解析することで含まれる前記第1の装置を特定するための第1の解析手段と、
    前記第1の装置の状態を取得するための第2の取得手段と、
    前記第1の装置の状態に応じたガイダンス画像を取得するための第3の取得手段と、
    前記撮影画像に前記ガイダンス画像を合成して表示画面を生成し、前記表示装置に表示するための表示手段とを備え、
    前記表示手段は、前記ガイダンス画像を前記撮影画像に合成するための位置を特定するための特定手段を含み、
    前記特定手段は、前記撮影画像における、前記第1の装置の状態から特定される、前記状態に対して操作が必要となる部位である操作部位の位置と、前記操作部位に対して操作者が手を接近させると推測される位置とに基づいて、前記手を接近させると推測される位置から離れた位置を前記合成するための位置として特定する、ガイダンス表示システム。
  2. 前記特定手段は、前記撮影画像を解析することで前記撮影画像中の操作者の手の位置を検出するための第2の解析手段を含み、現在設定されている前記合成するための位置を、前記撮影画像中の操作者の手の位置との関係に基づいて更新する、請求項1に記載のガイダンス表示システム。
  3. 前記特定手段は、現在設定されている前記合成するための位置が前記撮影画像中の操作者の手の位置に基づいて特定される範囲に含まれない位置となるように更新する、請求項2に記載のガイダンス表示システム。
  4. 撮影のためのカメラと前記表示装置とを含んだ携帯端末をさらに備え、
    前記携帯端末は、当該携帯端末の携帯状況を検知するためのセンサーをさらに含み、
    前記特定手段は、前記センサーからのセンサー信号に基づいて得られる、前記携帯端末を把持した前記操作者が前記撮影画像において前記操作部位に対して手を接近させると推測される位置を用いて、前記合成するための位置を特定する、請求項1〜3のいずれかに記載のガイダンス表示システム。
  5. 前記センサーは前記携帯端末を把持する位置を検知し、
    前記特定手段は、前記センサー信号から前記携帯端末を把持する手が右手か左手かを特定し、前記携帯端末を把持する側の手に応じて特定される前記撮影画像において前記操作部位に対して手を接近させると推測される位置を用いて、前記合成するための位置を特定する、請求項4に記載のガイダンス表示システム。
  6. 前記特定手段は、前記携帯端末を把持する側と反対側の手の方を前記撮影画像において前記操作部位に対して手を接近させると推測される位置として前記合成するための位置を特定する、請求項5に記載のガイダンス表示システム。
  7. 前記センサーは前記携帯端末の角度を検知し、
    前記特定手段は、前記センサー信号から前記携帯端末の前記第1の装置に対する姿勢を特定し、前記携帯端末の前記第1の装置に対する姿勢から特定される前記撮影画像において前記操作部位に対して手を接近させると推測される位置を用いて、前記合成するための位置を特定する、請求項4に記載のガイダンス表示システム。
  8. 前記特定手段は、前記カメラの撮影方向が水平方向からなす角度に応じて前記携帯端末の前記第1の装置に対する姿勢を特定する、請求項7に記載のガイダンス表示システム。
  9. 前記表示手段は、前記操作部位の位置と前記特定される前記合成するための位置とが所定範囲内となる場合には、前記撮影画像と、前記第1の装置の画像に前記ガイダンス画像を合成した画像とを、それぞれ、前記表示装置の表示画面を二分したそれぞれの画面に並べて表示する、請求項1〜8のいずれかに記載のガイダンス表示システム。
  10. 第1の装置の操作のためのガイダンスを表示するガイダンス表示装置であって、
    表示装置と、
    カメラと、
    前記第1の装置と通信するための通信装置と、
    予め装置の状態に応じたガイダンス画像を記憶しておくためのメモリーと、
    制御装置とを備え、
    前記制御装置は、
    前記カメラより撮影画像を取得するための第1の取得手段と、
    前記撮影画像を解析することで含まれる前記第1の装置を特定するための解析手段と、
    前記第1の装置と通信することによって前記第1の装置の状態を取得するための第2の取得手段と、
    前記第1の装置の状態に応じたガイダンス画像を前記メモリーから取得するための第3の取得手段と、
    前記撮影画像に前記ガイダンス画像を合成して表示画面を生成し、前記表示装置に表示するための表示手段とを含み、
    前記表示手段は、前記ガイダンス画像を前記撮影画像に合成するための位置を特定するための特定手段を有し、
    前記特定手段は、前記撮影画像における、前記第1の装置の状態から特定される、前記状態に対して操作が必要となる部位である操作部位の位置と、前記操作部位に対して操作者が手を接近させると推測される位置とに基づいて、前記手を接近させると推測される位置から離れた位置を前記合成するための位置として特定する、ガイダンス表示装置。
  11. 第1の装置の操作のためのガイダンスを、カメラを有するガイダンス表示装置で表示する方法であって、
    撮影画像を取得するステップと、
    前記撮影画像を解析することで含まれる前記第1の装置を特定するステップと、
    前記第1の装置の状態を取得するステップと、
    前記第1の装置の状態に応じたガイダンス画像を取得するステップと、
    前記撮影画像に前記ガイダンス画像を合成して表示画面を生成し、前記ガイダンス表示装置に表示するステップとを備え、
    前記ガイダンス表示装置に表示するステップは、前記ガイダンス画像を前記撮影画像に合成するための位置を特定するステップを含み、
    前記合成するための位置を特定するステップでは、前記撮影画像における、前記第1の装置の状態から特定される、前記状態に対して操作が必要となる部位である操作部位の位置と、前記操作部位に対して操作者が手を接近させると推測される位置とに基づいて、前記手を接近させると推測される位置から離れた位置を前記合成するための位置として特定する、ガイダンス表示方法。
  12. カメラおよび通信装置を有するガイダンス表示装置に、第1の装置の操作のためのガイダンスを表示する処理を実行させるためのプログラムであって、
    前記カメラでの撮影によって撮影画像を取得するステップと、
    前記撮影画像を解析することで含まれる前記第1の装置を特定するステップと、
    前記第1の装置と通信することで前記第1の装置より前記第1の装置の状態を取得するステップと、
    予め装置の状態に応じたガイダンス画像を記憶しているメモリーより、前記第1の装置の状態に応じたガイダンス画像を取得するステップと、
    前記撮影画像に前記ガイダンス画像を合成して表示画面を生成し、前記ガイダンス表示装置に表示するステップとを前記ガイダンス表示装置に実行させ、
    前記ガイダンス表示装置に表示するステップは、前記ガイダンス画像を前記撮影画像に合成するための位置を特定するステップを含み、
    前記特定するステップでは、前記撮影画像における、前記第1の装置の状態から特定される、前記状態に対して操作が必要となる部位である操作部位の位置と、前記操作部位に対して操作者が手を接近させると推測される位置とに基づいて、前記手を接近させると推測される位置から離れた位置を前記合成するための位置として特定する、ガイダンス表示プログラム。
JP2012125907A 2012-06-01 2012-06-01 ガイダンス表示システム、ガイダンス表示装置、ガイダンス表示方法、およびガイダンス表示プログラム Expired - Fee Related JP5983053B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012125907A JP5983053B2 (ja) 2012-06-01 2012-06-01 ガイダンス表示システム、ガイダンス表示装置、ガイダンス表示方法、およびガイダンス表示プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012125907A JP5983053B2 (ja) 2012-06-01 2012-06-01 ガイダンス表示システム、ガイダンス表示装置、ガイダンス表示方法、およびガイダンス表示プログラム

Publications (2)

Publication Number Publication Date
JP2013250849A true JP2013250849A (ja) 2013-12-12
JP5983053B2 JP5983053B2 (ja) 2016-08-31

Family

ID=49849445

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012125907A Expired - Fee Related JP5983053B2 (ja) 2012-06-01 2012-06-01 ガイダンス表示システム、ガイダンス表示装置、ガイダンス表示方法、およびガイダンス表示プログラム

Country Status (1)

Country Link
JP (1) JP5983053B2 (ja)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014164356A (ja) * 2013-02-21 2014-09-08 Fujitsu Ltd 画像処理装置、画像処理方法および画像処理プログラム
JP2015138445A (ja) * 2014-01-23 2015-07-30 富士通株式会社 表示制御方法、情報処理装置、および表示制御プログラム
JP2016009228A (ja) * 2014-06-23 2016-01-18 コニカミノルタ株式会社 携帯端末、携帯端末の制御プログラム、及び、ネットワーク入出力システム
JP2016071676A (ja) * 2014-09-30 2016-05-09 京セラドキュメントソリューションズ株式会社 情報処理装置、携帯端末装置、および情報処理システム
JP2016189141A (ja) * 2015-03-30 2016-11-04 大日本印刷株式会社 データ再生方法及びプログラム
JP2017111670A (ja) * 2015-12-17 2017-06-22 富士通テン株式会社 情報表示装置、情報表示システム及び情報表示方法
JP2018027638A (ja) * 2016-08-17 2018-02-22 富士ゼロックス株式会社 表示システム、制御装置、および、プログラム
JP2018092299A (ja) * 2016-12-01 2018-06-14 Kddi株式会社 操作支援装置
JP2018093424A (ja) * 2016-12-06 2018-06-14 京セラドキュメントソリューションズ株式会社 画像形成システム、原稿配置設定方法及び原稿配置設定プログラム
JP2018156239A (ja) * 2017-03-16 2018-10-04 Kddi株式会社 操作支援装置
JP2020013487A (ja) * 2018-07-20 2020-01-23 オムロンヘルスケア株式会社 端末装置、情報処理方法、及びプログラム
JP2020013488A (ja) * 2018-07-20 2020-01-23 オムロンヘルスケア株式会社 端末装置、情報処理方法、及びプログラム
JP2020077239A (ja) * 2018-11-08 2020-05-21 京セラドキュメントソリューションズ株式会社 携帯機器および操作支援プログラム
JP2020154569A (ja) * 2019-03-19 2020-09-24 株式会社日立製作所 表示装置、表示制御方法、及び表示システム
JP7351089B2 (ja) 2019-03-18 2023-09-27 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007116270A (ja) * 2005-10-18 2007-05-10 Hitachi Ltd 端末装置及び機器制御システム
JP2008250948A (ja) * 2007-03-30 2008-10-16 Sharp Corp 情報処理装置、情報処理方法、情報処理プログラム、情報処理プログラムを記録した記憶媒体、並びに情報表示装置
JP2010219879A (ja) * 2009-03-17 2010-09-30 Ricoh Co Ltd ヘルプ情報提供システム、サーバ装置、対象機器、携帯通信端末、ヘルプ情報提供方法、プログラム及び記録媒体
JP2011158959A (ja) * 2010-01-29 2011-08-18 Toppan Printing Co Ltd 電子マニュアル表示装置
JP2012098705A (ja) * 2010-10-07 2012-05-24 Nikon Corp 画像表示装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007116270A (ja) * 2005-10-18 2007-05-10 Hitachi Ltd 端末装置及び機器制御システム
JP2008250948A (ja) * 2007-03-30 2008-10-16 Sharp Corp 情報処理装置、情報処理方法、情報処理プログラム、情報処理プログラムを記録した記憶媒体、並びに情報表示装置
JP2010219879A (ja) * 2009-03-17 2010-09-30 Ricoh Co Ltd ヘルプ情報提供システム、サーバ装置、対象機器、携帯通信端末、ヘルプ情報提供方法、プログラム及び記録媒体
JP2011158959A (ja) * 2010-01-29 2011-08-18 Toppan Printing Co Ltd 電子マニュアル表示装置
JP2012098705A (ja) * 2010-10-07 2012-05-24 Nikon Corp 画像表示装置

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014164356A (ja) * 2013-02-21 2014-09-08 Fujitsu Ltd 画像処理装置、画像処理方法および画像処理プログラム
JP2015138445A (ja) * 2014-01-23 2015-07-30 富士通株式会社 表示制御方法、情報処理装置、および表示制御プログラム
JP2016009228A (ja) * 2014-06-23 2016-01-18 コニカミノルタ株式会社 携帯端末、携帯端末の制御プログラム、及び、ネットワーク入出力システム
JP2016071676A (ja) * 2014-09-30 2016-05-09 京セラドキュメントソリューションズ株式会社 情報処理装置、携帯端末装置、および情報処理システム
US9641707B2 (en) 2014-09-30 2017-05-02 Kyocera Document Solutions Inc. Operation screen of an image forming apparatus being displayed on a portable device based on the position of the portable device
JP2016189141A (ja) * 2015-03-30 2016-11-04 大日本印刷株式会社 データ再生方法及びプログラム
JP2017111670A (ja) * 2015-12-17 2017-06-22 富士通テン株式会社 情報表示装置、情報表示システム及び情報表示方法
JP2018027638A (ja) * 2016-08-17 2018-02-22 富士ゼロックス株式会社 表示システム、制御装置、および、プログラム
JP2018092299A (ja) * 2016-12-01 2018-06-14 Kddi株式会社 操作支援装置
JP2018093424A (ja) * 2016-12-06 2018-06-14 京セラドキュメントソリューションズ株式会社 画像形成システム、原稿配置設定方法及び原稿配置設定プログラム
JP2018156239A (ja) * 2017-03-16 2018-10-04 Kddi株式会社 操作支援装置
JP2020013487A (ja) * 2018-07-20 2020-01-23 オムロンヘルスケア株式会社 端末装置、情報処理方法、及びプログラム
JP2020013488A (ja) * 2018-07-20 2020-01-23 オムロンヘルスケア株式会社 端末装置、情報処理方法、及びプログラム
JP7147318B2 (ja) 2018-07-20 2022-10-05 オムロンヘルスケア株式会社 端末装置、情報処理方法、及びプログラム
JP7147317B2 (ja) 2018-07-20 2022-10-05 オムロンヘルスケア株式会社 端末装置、情報処理方法、及びプログラム
JP2020077239A (ja) * 2018-11-08 2020-05-21 京セラドキュメントソリューションズ株式会社 携帯機器および操作支援プログラム
JP7205688B2 (ja) 2018-11-08 2023-01-17 京セラドキュメントソリューションズ株式会社 携帯機器および操作支援プログラム
JP7351089B2 (ja) 2019-03-18 2023-09-27 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム
JP2020154569A (ja) * 2019-03-19 2020-09-24 株式会社日立製作所 表示装置、表示制御方法、及び表示システム
JP7078568B2 (ja) 2019-03-19 2022-05-31 株式会社日立製作所 表示装置、表示制御方法、及び表示システム

Also Published As

Publication number Publication date
JP5983053B2 (ja) 2016-08-31

Similar Documents

Publication Publication Date Title
JP5983053B2 (ja) ガイダンス表示システム、ガイダンス表示装置、ガイダンス表示方法、およびガイダンス表示プログラム
CN109683716B (zh) 基于眼睛跟踪的可见度提高方法和电子装置
US8350896B2 (en) Terminal apparatus, display control method, and display control program
US9342142B2 (en) Display control apparatus, display control method, and display control program
KR20170092127A (ko) 화상처리장치, 화상처리방법 및 화상처리프로그램과 촬영보조기재
CN110456782B (zh) 控制装置和控制方法
JP5258399B2 (ja) 画像投影装置及びその制御方法
KR20170037424A (ko) 이동 단말기 및 그 제어방법
JP2013069224A (ja) 動作認識装置、動作認識方法、操作装置、電子機器、及び、プログラム
KR101797260B1 (ko) 정보 처리 장치, 정보 처리 시스템 및 정보 처리 방법
US20160269578A1 (en) Head mounted display apparatus and method for connecting head mounted display apparatus to external device
JPWO2011114567A1 (ja) 立体表示装置及び立体撮影装置、並びに利き目判定方法及びこれに用いる利き目判定プログラム並びに記録媒体
EP3989118A1 (en) Target tracking method and system, readable storage medium and moving platform
KR20160131278A (ko) 이동 단말기
US8643679B2 (en) Storage medium storing image conversion program and image conversion apparatus
US9406136B2 (en) Information processing device, information processing method and storage medium for identifying communication counterpart based on image including person
JP2016045588A (ja) データ処理装置、データ処理システム、データ処理装置の制御方法、並びにプログラム
JP4871226B2 (ja) 認識装置および認識方法
JP6319220B2 (ja) 透過型ウェアラブル端末、データ処理装置、及びデータ処理システム
US20220244788A1 (en) Head-mounted display
JP2011095984A (ja) 画像表示装置
JP7155613B2 (ja) 情報処理装置及びプログラム
JP2007310914A (ja) マウス代替方法、マウス代替プログラム、および記録媒体
KR20190048810A (ko) 증강현실용 컨텐츠 제공 장치 및 방법
JPWO2018123022A1 (ja) コンピュータプログラム、表示装置、頭部装着型表示装置、マーカ

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160325

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160705

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160718

R150 Certificate of patent or registration of utility model

Ref document number: 5983053

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees