JP2011107915A - 表示装置、表示プログラム及び表示方法 - Google Patents

表示装置、表示プログラム及び表示方法 Download PDF

Info

Publication number
JP2011107915A
JP2011107915A JP2009261346A JP2009261346A JP2011107915A JP 2011107915 A JP2011107915 A JP 2011107915A JP 2009261346 A JP2009261346 A JP 2009261346A JP 2009261346 A JP2009261346 A JP 2009261346A JP 2011107915 A JP2011107915 A JP 2011107915A
Authority
JP
Japan
Prior art keywords
display
user
finger
hand
options
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009261346A
Other languages
English (en)
Other versions
JP5293570B2 (ja
Inventor
Shinji Kanda
真司 神田
Yoshiro Haneda
芳朗 羽田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2009261346A priority Critical patent/JP5293570B2/ja
Publication of JP2011107915A publication Critical patent/JP2011107915A/ja
Application granted granted Critical
Publication of JP5293570B2 publication Critical patent/JP5293570B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】ユーザによる選択肢の選択を支援し、ユーザに選択を早急に行わせる。
【解決手段】動きパターン生成部24が、ユーザの指の動きを検知して、表示部10上で動かされた指の動きのパターンデータを取得し、表示制御部18が、動きパターン生成部24により取得されたパターンデータから指が一定時間以上動いていて、かつ選択肢の選択が行われていないと判断すると、選択肢と選択肢の表示位置とを関連付けて持つ表示項目DB36と、パターンデータとから、パターンデータに対応する選択肢を特定し、当該特定された選択肢のうち、ユーザにより選択される可能性の高い選択肢を他の選択肢とは異なる態様で表示部に表示させる。これにより、ユーザに迷いが生じた場合でも、ユーザは、選択肢の選択を早急に行うことができるようになる。
【選択図】図1

Description

本件は、表示装置、表示プログラム及び表示方法に関する。
ATM(現金自動預け払い機:Automated Teller Machine)などの無人端末においては、表示画面(タッチパネル)上に種々のメニューが表示される。表示画面上において人(ユーザ)が希望のメニューを選択すると、選択されたメニューの内容が表示画面上に表示されるようになっている。最近では、このような装置における、人の使い勝手を向上するための技術として、特許文献1、2などが提案されている。
上記特許文献1に記載の技術は、無人端末において、表情や視線から迷いを判断して、ヘルプメニューを表示するというものである。また、特許文献2に記載の技術は、手の位置や動く方向から人がどのようなキー(メニュー)を操作するかを予測して、予測したキーの次のステップを先読み提示することでユーザの操作回数を減らすというものである。
特開平8−328715号公報 特開2005−71246号公報
しかしながら、上記いずれの技術を用いたとしても、画面上に多数のメニューが存在しているためにユーザがメニュー選択に迷った場合に、迷いを早急に解消することは難しい。すなわち、上記いずれの技術を用いても、メニュー選択の時間を短縮することは難しい。
そこで本件は上記の課題に鑑みてなされたものであり、ユーザに迷いが生じた場合でも早急に選択肢の選択を行わせることが可能な表示装置、表示プログラム及び表示方法を提供することを目的とする。
本明細書に記載の表示装置は、複数の選択肢を表示する表示手段と、ユーザの手又は指の動きを検知して、前記表示手段上で動かされた手又は指の位置情報を取得する取得手段と、前記取得手段が取得した手又は指の位置情報から手又は指が一定時間以上動いていて、かつ選択肢の選択が行われていないと判断すると、前記選択肢と前記選択肢の表示位置とを関連付けて持つデータベースと、前記取得手段が取得した一定時間の手又は指の位置情報とから、前記取得手段が取得した一定時間の手又は指の位置に対応する選択肢を特定し、当該特定された選択肢のうち、ユーザにより選択される可能性の高い選択肢を他の選択肢とは異なる態様で前記表示手段に表示させる表示制御手段と、を備える表示装置である。
本明細書に記載の表示プログラムは、 コンピュータを、複数の選択肢を表示する表示手段上での、ユーザの手又は指の動きを検知して、手又は指の位置情報を取得する取得手段、及び前記取得手段が取得した手又は指の位置情報から手又は指が一定時間以上動いていて、かつ選択肢の選択が行われていないと判断すると、前記選択肢と前記選択肢の表示位置とを関連付けて持つデータベースと、前記取得手段が取得した一定時間の手又は指の位置情報とから、前記取得手段が取得した一定時間の手又は指の位置に対応する選択肢を特定し、当該特定された選択肢のうち、ユーザにより選択される可能性の高い選択肢を他の選択肢とは異なる態様で前記表示手段に表示させる表示制御手段、として機能させる表示プログラムである。
本明細書に記載の表示方法は、複数の選択肢を表示する表示手段上での、ユーザの手又は指の動きを検知して、手又は指の位置情報を取得する取得工程と、前記取得工程で取得された手又は指の位置情報から手又は指が一定時間以上動いていて、かつ選択肢の選択が行われていないと判断すると、前記選択肢と前記選択肢の表示位置とを関連付けて持つデータベースと、前記取得手段が取得した一定時間の手又は指の位置情報とから、前記取得手段が取得した一定時間の手又は指の位置に対応する選択肢を特定し、当該特定された選択肢のうち、ユーザにより選択される可能性の高い選択肢を他の選択肢とは異なる態様で前記表示手段に表示させる表示工程と、をコンピュータが実行することを特徴とする表示方法である。
本明細書に記載の表示装置、表示プログラム及び表示方法によれば、ユーザに迷いが生じた場合でも早急に選択肢の選択を行わせることができるという効果を奏する。
一実施形態に係る表示装置100の構成を概略的に示すブロック図である。 図2(a)は、個人DBを示す図であり、図2(b)は、候補群DBを示す図である。 図3(a)は、迷いパターンDBを示す図であり、図3(b)は、表示項目DBを示す図である。 図1の表示装置100による処理を示すフローチャートである。 表示部の画面上に表示されるメニューの一例を示す図である。 ユーザが、選択すべき選択肢を見つけられなかったり、選択すべき選択肢に迷いが生じたときに行う動作の一例を示す図である。 ステップS14のパターンデータの生成処理を示すフローチャートである。 動きパターン生成部により生成されるパターンデータを示す図である。 図9(a)、図9(b)は、図4のステップS24の処理を説明するための図である。 指を動かしている範囲を示す図である。 図11(a)、図11(b)は、図4のステップS34の処理を説明するための図である。 図12(a)、図12(b)は、図4のステップS42の処理を説明するための図である。 変形例を説明するための図である。
以下、表示装置、表示プログラム及び表示方法の一実施形態について、図1〜図12に基づいて詳細に説明する。図1には、一実施形態に係る表示装置100がブロック図にて示されている。この表示装置100は、ATMなどの無人端末に設けられ、人(ユーザ)に対して、情報の提供や、当該情報のメニューの表示を行う。また、表示装置100は、ユーザからの入力、例えばメニュー選択など、を受け付けるものである。
表示装置100は、図1に示すように、表示手段としての表示部10と、ユーザ情報取得手段としての個人ID取得部12と、取得手段としてのカメラ14と、判別部16と、表示制御手段としての表示制御部18と、記憶手段としてのデータ蓄積部20と、を備える。これら各部は、通信配線40により接続され、当該通信配線40を介して、各部間で各種データのやり取りを行ったり、制御信号を送ったりすることが可能となっている。
表示部10は、タッチパネル機能を有するディスプレイである。すなわち、表示部10は、情報や当該情報のメニューなどを表示する機能と、ユーザによるメニューの選択を受け付ける入力インタフェースとしての機能と、を有している。個人ID取得部12は、ユーザが保有するカード(ATMで使用するキャッシュカードなど)から、ユーザの個人IDを取得するカードリーダである。カメラ14は、その視野内に、表示部10の画面全体が収まるように設定されており、表示部10の画面上でタッチパネルを操作するユーザの指の動きを撮影する。
判別部16は、動き検出部22と、動きパターン生成部24と、迷い判別部26と、を有する。動き検出部22と動きパターン生成部24とを少なくとも含んで、取得手段が実現されている。動き検出部22は、カメラ14で撮影された映像から、ユーザの指の位置情報を検出する。この動き検出部22では、ユーザの指の位置情報をリアルタイム計測するため、指の動きを検出しているとも言える。動きパターン生成部24は、動き検出部22で検出したユーザの指の位置情報(動き)のパターンデータを生成する。迷い判別部26は、動きパターン生成部24にて生成されたパターンデータと、予め用意されている迷いパターン(軌跡)と、からユーザの迷いを判別する。
表示制御部18は、表示部10の表示処理を統括的に制御する。例えば、表示制御部18は、迷い判別部26による迷い判別結果、個人ID及び過去の操作履歴などから、表示すべきメニュー(選択肢)の候補群を選択し、表示部10に対して当該選択肢を表示させる。
データ蓄積部20は、個人DB30と、候補群DB32と、迷いパターンDB34と、表示項目DB36と、を有する。個人DB30は、図2(a)に示すように、ユーザ名、個人ID、識別番号、操作パターン、及びメニューの選択情報(操作履歴)を蓄積する。操作パターンは、ある項目を選択したときに行った指の動きを意味する。操作パターンそれぞれには、識別番号が付与されている。なお、識別番号については後述する。候補群DB32は、メニューに表示すべき選択肢の候補の一覧(候補群)を蓄積する。例えば、候補群DB32には、図2(b)に示すように、ユーザの個人IDに対応して、当該ユーザが頻繁に選択する選択肢を、候補群として蓄積しておく。ここで、「頻繁に選択する選択肢」とは、予め定めておいた回数以上選択が行われた選択肢であるものとする。また、全ユーザが頻繁に選択する選択肢についても、全ユーザに関する候補群として格納しておく(図2(b)の最下段参照)。これら各候補群は、個人DB30に蓄積された操作履歴などを用いて随時更新される。
迷いパターンDB34は、図3(a)に示すように、人の迷いパターン情報を蓄積する。迷いパターンは、図2(a)の操作パターンのうち、メニュー項目の選択に一定時間以上時間がかかった場合の操作パターンを意味する。なお、迷いパターンDB34には、各ユーザの個別の迷いパターンと、一般的なユーザの迷いパターン(図3(a)参照)が蓄積される。一般的なユーザの迷いパターンとしては、各ユーザ個別の迷いパターンを平均したパターンなどを用いることができる。また、迷いパターンDB34には、過去に各迷いパターンの指の動きがユーザによってなされた後にユーザによって選択された回数の多い選択肢が、各迷いパターン(及び各迷いパターンに対応する個人ID)に対応付けられて格納されている。表示項目DB36には、図3(b)に示すように、メニューに表示する項目の表示位置が、左上座標と、右下座標とにより定義されている。
次に、本実施形態の表示装置100による処理について、図4のフローチャートに沿って、かつその他の図面を適宜参照しつつ、説明する。なお、前提として、表示部10の画面上には、表示制御部18の指示の下、図3(b)の表示項目DB36に基づいて、図5に示すようなメニューが表示されているものとする。
まず、図4のステップS10では、個人ID取得部12が、ユーザから個人IDが入力されたか否かを判断する。このステップS10では、ユーザが保有するカードが、個人ID取得部12が読み取り可能な位置まで挿入(又は配置)され、個人ID取得部12が、個人IDを読み取れた段階で判断が肯定され、ステップS12に移行する。ステップS12では、個人ID取得部12が、個人DB30を参照して個人IDの認証を行うことで、ユーザを特定する。
次いで、ステップS14では、カメラ14により撮影された画像を用いて、動き検出部22が、指の動き(指の位置情報)を検出する。ここで、ユーザは、自己が選択すべき選択肢を見つけられなかったり、選択すべき選択肢に迷いが生じたときには、画面上で、図6に示すような動作を行うのが一般的である。そこで、動き検出部22は、このようなユーザの指の動きを検出する。本実施形態においては、動き検出部22は、予め用意しておいた指(例えば、人差し指)の画像(サンプル画像)を用いて、カメラ14において取得された画像中からパターンマッチング法により指の位置情報を特定する。また、位置情報をリアルタイム計測することで指の動きを特定する。なお、指のサンプル画像としては、複数人の人差し指の平均的な画像を採用しても良い。また、ユーザが表示装置100を最初に使用するときに、人差し指のサンプル画像を取得しておき、ユーザごとにサンプル画像を使い分けることとしても良い。これにより、パターンマッチングにおける精度を向上することができる。
更に、ステップS14では、上記指の動き検出以外に、動きパターン生成部24が、動き検出部22により検出された指の動きから、パターンデータを生成する。このパターンデータの生成は、図7に示すフローチャートに沿って実行される。
まず、動きパターン生成部24は、ステップS110において、個人ID取得部12で取得された個人IDを読み出す。次いで、ステップS112では、個人IDと日時を組み合わせた識別番号を生成する。具体的には、個人IDが「XXXXX」で、日時が例えば「2009年11月2日10時30分」であれば、識別番号としては、「XXXXX0911021030」となる。
次いで、動きパターン生成部24は、ステップS114において、変数iを0に設定する。次いで、動きパターン生成部24は、ステップS116において、動き検出部22で取得されたユーザの指の動きから、Pi(xi,yi)(ここでは、P0(x0,y0))を取得する。
次いで、動きパターン生成部24は、ステップS118において、指の動きが止まったか否かを判断する。ここでは、Pi(xi,yi)と、P(i−1)(x(i−1),y(i−1))との距離が、所定値(τ)以下である状態が、所定のサンプル回数継続した場合に、指の動きが止まったと判断する。なお、例えばサンプル回数が10回であり、サンプル間隔が100m秒であれば、τが次式(1)を満たさない状態が1秒間継続したときに、ステップS118の判断が否定される。ステップS118の判断が否定された場合には、ステップS120に移行する。
τ>{(xi−x(i−1))2+(yi−y(i−1))2}1/2 …(1)
次いで、動きパターン生成部24は、ステップS120において、iを1インクリメント(i←i+1)し、ステップS116に戻る。これ以降は、指の動きが止まるまで、ステップS116、S118、S120の処理、判断を一定の間隔で繰り返す。この繰り返し処理の結果、図8に示すようなXY座標を取得することができる。本実施形態では、動きパターン生成部24は、これらXY座標の時系列データをパターンデータとし、ステップS122において、識別番号と対応付けられて、不図示のメモリ等に格納される。なお、本実施形態では、図8において、i=0の座標データをパターンデータに含めていない。これは、i=0からi=1の間には、ユーザの迷いにかかわらず、指が大きく動くことが多く、パターンデータとしては適さないおそれがあるからである。ただし、これに限らず、i=0のデータを、パターンデータに含めることとしても良い。
なお、図7の処理においては、表示部10からユーザの指が離れたり、指が大きく移動した場合については特に言及をしていないが、このような場合には、それまでのデータを破棄して、新たなデータを取得することとしても良い。表示部10からユーザの指が離れた場合としては、ユーザの指の位置を取得できなくなった場合が挙げられる。また、指が大きく移動した場合としては、PiとP(i−1)との距離が、所定距離(例えば、表示部10の画面の対角線長さの1/4以上など)となった場合が挙げられる。
図4に戻り、ステップS16では、迷い判別部26が、ステップS14で生成されたパターンデータに基づいて、指が一定時間動いているか否かを判断する。ここでの判断が肯定された場合には、ステップS30に移行するが、否定された場合には、ステップS18に移行する。ステップS18に移行する場合、ユーザは、メニュー選択に然程迷っていない場合であるといえる。
ステップS18では、表示制御部18が、所定時間内にユーザによりメニュー選択がされたか否かを判断する。ここでの判断が肯定された場合、すなわちユーザがメニュー選択を行った場合には、表示制御部18は、ステップS20において、現ユーザの個人ID、取得された操作パターン及びメニュー選択情報を、識別番号とともに個人DB30に蓄積する。なお、表示制御部18は、個人DB30に蓄積された選択情報を用いて、候補群DB32に格納されている選択肢の候補群を更新する。
次いで、ステップS22では、表示制御部18が、ユーザによって選択された情報を画面上に表示する。その後は、画面上に新たに表示された情報等に対するユーザの操作が行われることになる。
一方、ステップS18の判断が否定された場合、すなわち、未だメニュー選択がなされていない場合には、ステップS24に移行する。ステップS24では、表示制御部18が、個人DB30を参照して、ステップS12において特定されたユーザ、すなわち現ユーザによる過去のメニュー操作回数が、一定数以下か否かを判断する。ここでの判断が否定された場合(一定数以上であった場合)には、候補群DB32の中から、現ユーザが過去に多く選択していた候補群を選択し、当該候補群を他の選択肢とは異なる状態で表示する。具体的には、図5に示す全てのメニューのうち、現ユーザが頻繁に選択する候補群を、例えば、図9(a)に示すように、目立つように表示する。なお、図9(a)では、図2(b)における、個人ID「XXXX1」のユーザの候補群を目立つように表示した例を示している。なお、表示方法としては、これに限られるものではなく、図9(b)に示すように、候補群のみを拡大して表示することとしても良い。その後は、ステップS14に戻る。
一方、ステップS24の判断が肯定されると、ステップS28に移行する。ステップS28では、表示制御部18がメニューに含まれる選択肢の中から、全ユーザが頻繁に選択する候補群を表示する。具体的には、表示制御部18は、ステップS28を行う前の段階で候補群DB32に既に蓄積されている、全ユーザが頻繁に選択する複数の選択肢の候補群(図2(b)の最下段)を読み出し、当該候補群を、図9(a)や図9(b)と同様の方法で表示する。その後は、ステップS14に戻る。
これに対し、図4のステップS16の判断が肯定された場合、すなわち、指が一定時間以上動いていた場合には、ステップS30に移行する。このようにステップS30に移行する場合は、ユーザがメニュー選択に迷っている場合であるといえる。
ステップS30では、表示制御部18が、所定時間内に、ユーザによりメニュー選択がされたか否かを判断する。ここでの判断が肯定された場合には、表示制御部18は、ステップS20、S22を上述したのと同様にして実行する。一方、ステップS30の判断が否定された場合には、ステップS32に移行する。
ステップS32では、表示制御部18が、個人DB30を参照して、ユーザによるメニュー操作回数が一定数以下か否かを判断する。ここでの判断が肯定される場合とは、現ユーザは、過去にあまり操作を行っていない、すなわち操作履歴がデータ蓄積部20にあまり蓄積されていないことを意味する。この場合には、ステップS34において、表示制御部18が、ステップS14で取得されたパターンデータと、迷いパターンDB34に格納されている複数の迷いパターンと、を比較する。なお、この場合の迷いパターンは、迷いパターンDB34に格納されている一般的なユーザの迷いパターン(図3(a)参照)である。ここでの比較は、動きのパターンの2次元時系列データ(パターンデータ)と蓄積データ列との相関を取ることにより行われる。そして、表示制御部18は、複数の一般的なユーザの迷いパターンの中から、パターンデータと共通する(同一又は近似する)迷いパターンを特定する。また、表示制御部18は、表示部10に対して、特定された迷いパターンに対応する表示を行わせる。具体的には、表示制御部18は、(i)ステップS14で生成されたパターンデータと、図3(b)に示す表示項目DBの座標値と、に基づいて、指を動かしている範囲に含まれる選択肢のみを、表示部10に拡大表示させる。そして、(ii)その拡大表示した選択肢のうち、候補群DB32に迷いパターンに対応して格納されている候補群を、他の選択肢とは異なる態様で、表示部10に表示させる。
上記(i)においては、図8のパターンデータが生成された場合に、図10に示すように、表示部10の直交座標系(XY座標系)上でパターンデータがとりうるX、Y座標の最大値(xmax,ymax)及び最小値(xmin,ymin)を取得する。そして、それぞれの最大値と最小値とで規定される範囲(パターンデータの存在範囲)に少なくとも一部が含まれる選択肢を、図3(b)の座標値から導き出し、当該選択肢を表示部10に拡大表示させる。図11(a)には、表示部10における拡大表示状態が示されている。そして、上記(ii)では、表示制御部18が、図11(b)に示すように、迷いパターンに対応して迷いパターンDB34に格納されている選択肢の候補群を、他の選択肢とは異なる色などで目立つように表示する。上記のようにしてステップS34の処理が完了すると、ステップS14に戻る。
一方、ステップS32の判断が否定された場合には、ステップS36に移行する。ステップS36では、表示制御部18が、迷いパターンDB34に格納されている現ユーザの過去の迷いパターンと、今回のパターンとを比較する。次いで、ステップS38では、表示制御部18が、個人DB30を参照して、以前操作したメニュー付近か否かを判断する。ここでの判断が否定された場合には、ステップS40に移行し、肯定された場合には、ステップS42に移行する。
ステップS40に移行した場合、表示制御部18は、現ユーザの操作履歴のうち、操作頻度が少ない選択肢を候補群として生成し、表示部10に表示する。
一方、ステップS42に移行した場合、表示制御部18は、現ユーザの操作履歴のうちで、以前操作した選択肢を入れた候補群を生成し表示する。具体的には、図10に示すようにパターンデータの存在範囲を規定した後、図12(a)に示すようにパターンデータの存在範囲に含まれる選択肢を、図3(b)の座標値から導き出して表示部10に拡大表示させる。そして、現ユーザにより多く選択されている選択肢を迷いパターンDB34から読み出して、図12(b)に示すように他の選択肢とは異なる態様で表示部10に表示させる。
上記のようにしてステップS40又はS42の処理が完了すると、ステップS14に戻る。ステップS26,S28,S34,S40,S42のいずれかを経て、ステップS14に移行すると、以降は、上記と同様の処理を実行する。
なお、ステップS14に戻った後に行われるステップS22では、表示部10上でメニューが拡大表示されていたり、特定の選択肢が他の選択肢と異なる態様で表示されている状態で、ユーザにより選択肢が選択される場合がある。このような場合には、表示制御部18は、一旦メニューを最初の状態(図5の状態)に戻した後に、次の画面に切り替えることとする。このようにするのは、選択したメニューが実際にはどの位置に有ったのかを、ユーザに意識させるためである。ただし、これに限られるものではなく、最初の状態に戻すことなく次の画面に切り替えることとしても良い。
以上、詳細に説明したように、本実施形態によると、動きパターン生成部24が、表示部10上でのユーザの指の位置情報を検知して、指の動きのパターンデータを生成し、表示制御部18が、指の動きのパターンデータ(指の位置情報)から指が一定時間以上動いていて、かつ選択肢の選択が行われていないと判断すると、選択肢と選択肢の表示位置とを関連付けて持つ表示項目DB36と、パターンデータ(一定時間の指の位置情報)とから、一定時間の指の位置に対応する選択肢を特定し、当該特定された選択肢のうち、ユーザにより選択される可能性の高い選択肢を他の選択肢とは異なる態様で表示部10に表示させる。このように、ユーザが選択肢を選択せずに指を一定時間以上動かしている場合、表示部10には、ユーザの指の移動範囲に対応する選択肢のうち、ユーザにより選択される可能性の高い選択肢が他の選択肢とは異なる態様で表示されるので、ユーザに迷いが生じた場合でも、ユーザによる選択肢の選択を支援し、選択を早急に行わせることができるようになる。
また、本実施形態では、個人ID取得部12は、ユーザを特定する個人IDを取得し、候補群DB32には、当該個人IDと、個人IDにより特定されるユーザが過去に選択した選択肢と、が対応付けられて記憶されている。そして、表示制御部18が、個人IDにより特定されるユーザが過去に選択した選択肢のうち、一定時間の指の位置に対応する選択肢、すなわちパターンデータの存在範囲に含まれる選択肢を、他の選択肢とは異なる態様で表示部10に表示させる。一般的に、ユーザは、過去に表示装置100を操作した経験があれば、以前に選択した選択肢が、表示部10の画面上のどの辺りに存在していたかを大まかに覚えていることが多い。このような場合、ユーザは、過去に選択した選択肢の近傍で指を動かして迷うような動作をすることが多い。したがって、一定時間の指の位置に対応する選択肢、すなわち、指の動きのパターンデータの存在範囲に含まれる選択肢のうち、過去に表示装置100を操作した経験のあるユーザにより選択された選択肢を他の選択肢とは異なる態様で表示することで、ユーザは過去に選択したのと同一の選択肢を選択する場合の選択を支援することができる。これにより、ユーザに選択を早急に行わせることができるようになる。
また、本実施形態では、個人ID取得部12が取得した個人IDに対応する選択肢が、候補群DB32にないとき、すなわち、現ユーザが表示装置100を使用した履歴がないときに、表示制御部18は、不特定のユーザにより選択される可能性の高い選択肢を他の選択肢とは異なる態様で表示部10に表示させる。ここで、一般的には、ユーザが、過去に表示装置100を操作したことが無ければ、表示部10の画面全体から選択肢を探すために、指を画面の広い範囲にわたって動かすことが多い。このような場合でも、当該広い範囲内で、ユーザにより選択される可能性が高い選択肢(例えば、全ユーザにより頻繁に選択される選択肢)を他の選択肢とは異なる態様で表示することで、ユーザは、早期に選択肢を選択することができるようになる。
また、本実施形態では、表示制御部18は、動きパターン生成部24において生成された指の動きのパターンデータの存在範囲を、表示部10に拡大表示させる。これにより、ユーザによる選択肢の選択を支援し、選択を早急に行わせることができるようになる。
なお、上記実施形態では、動き検出部22が、ユーザの人差し指の動きを検出し、動きパターン生成部24が、人差し指の動きのパターンデータを生成する場合について説明したが、これに限られるものではない。例えば、ユーザの他の指の動きや、手の動きを検出し、当該動きのパターンを生成することとしても良い。
なお、上記実施形態では、カメラ14を用いて指の動きを検出する場合について説明したが、これに限らず、その他の装置(モーションキャプチャーやサーモグラフィックカメラなど)を用いて指の動きを検出することとしても良い。
なお、上記実施形態では、個人ID取得部12が、ユーザが保有するカードから、ユーザの個人IDを取得するカードリーダである場合について説明したが、これに限られるものではない。個人ID取得部12は、指紋、腕の静脈、顔、網膜などから個人IDを特定する生体認証装置であっても良いし、ユーザがキーボードなどを用いて直接入力した個人IDを取得可能な装置であっても良い。
なお、上記実施形態では、図4の処理を行うか行わないかの切り替えをユーザが行えるようにしても良い。具体的には、表示部10の画面上等に、拡大表示や候補群の表示を行うか否かをユーザに選択させるボタンを設けることとしても良い。
なお、上記実施形態では、拡大表示と候補群の表示を行う場合について説明したが、これに限られるものではない。例えば、候補群のみを表示した画面を、全選択肢が表示されている画面上にオーバーラップさせて表示することとしても良い。
なお、上記実施形態では、表示装置100の現ユーザに合わせて、選択肢の候補群を表示する場合について説明したが、これに限られるものではない。例えば、候補群DB32に、ユーザが実際に選択した選択肢と、その選択した日時と、を記憶しておき、選択した時期(例えば、週末や月末など)ごとに実際に選択した選択肢をグループ分けしておいても良い。この場合、例えば、月初めに引き出しを頻繁に行うとともに月末に入金を頻繁に行うユーザが、月末にATMを利用する際には「入金」の選択肢を目立つように表示することができる。なお、選択した時期は、図2(a)の個人DB30に示す識別番号で管理しても良い。なお、
なお、図2(a)〜図3(b)のデータベースの構成は一例であって、当該構成に限定されるものではない。データベースの構成は、制御に用いるデータの種別にあわせて適宜変更可能である。
なお、上記実施形態では、所定時間ごとに指の位置を検知し、当該位置情報に基づいて動きのパターンデータを生成する場合について説明したが、これに限られるものではない。例えば、指のオプティカルフロー(動き方向検出)を行って、その動き方向の時系列データに基づいて、動きのパターンデータを生成することとしても良い。
なお、上記実施形態では、ステップS16において、指が一定時間動いている場合に、ユーザが迷っていると判断する場合について説明したが、これに限られるものではない。例えば、ステップS16においては、ユーザの視線の動きを検知して、視線が定まっていない場合に、ユーザが迷っていると判断することとしても良い。また、指の動きと視線の動きの両方から、ユーザが迷っていると判断することとしても良い。
なお、上記実施形態では、表示部10の画面上で、選択される可能性の高い選択肢を目立たせる場合について説明したが、これに限られるものではない。例えば、棚に置かれた物体(部品や本など)についても、適用することができる。具体的には、図13(a)に示すように、部品を収納する箱60が整列された棚50の近傍に、カメラ14を設けるとともに、表示手段としてのスポットライト10’を設ける。このような棚50の前でも、人は、部品を探すときに指や手を動かす場合がある。この場合、カメラ14により取得した画像から指や手の動きのパターンデータを取得することで、ユーザの迷いを検出することができる。また、迷いパターンの存在範囲やユーザの個人IDなどを用いることで、上記実施形態と同様に、ユーザが選択する可能性の高い選択肢(箱60)を特定することができる。したがって、ユーザが選択する可能性の高い選択肢(箱60)をスポットライト10’で照明(表示)することで、ユーザは、必要とする部品の入った箱60を早急に探すことが可能となる。
なお、図13(a)では、表示手段としてスポットライトを用いた場合について説明したが、これに限らず、図13(b)に示すように、各箱60の配置位置に対応して、LEDなどの表示手段10”を設けることとしても良い。この場合、表示手段10”により、図13(a)のスポットライト10’と同様に、ユーザが選択する可能性の高い選択肢(箱60)の位置を表示することができる。これにより、ユーザは、必要とする部品の入った箱60を早急に探すことが可能となる。
なお、上記実施形態の表示装置100では、迷いパターンDB34に格納されているユーザの指や手の動きのパターンデータの固有の特徴が、同一ユーザにより実際に行われた指や手の動きパターンの特徴点と一致しなかった場合に、警告を発する警告装置を備えていても良い。この場合、警告装置は、パターンデータの固有の特徴点と、実際のパターンデータの特徴点との相関を取り、相関が低い場合に警告を発するようにすれば良い。なお、これに限らず、警告装置は、以前の手や指の動きから、次に動く地点の確率を推定し、実際に手や指が移動した地点の確率が小さい場合に、警告を発することとしても良い。
なお、上記実施形態では、本件の表示プログラムが、ATMに設置された表示装置100内に組み込まれ、図1の各部の各機能を実現する。しかしながら、これに限らず、例えば、インターネット等の通信網に接続されたサーバコンピュータを本件の表示制御手段とし、これに接続されたパーソナルコンピュータ等の通信装置が有する表示部に、メニュー表示を行うサービスをサーバコンピュータから提供するようにしても良い(ASP(Application Service Provider))。
なお、上記の処理機能は、コンピュータによって実現することができる。その場合、処理装置が有すべき機能の処理内容を記述したプログラムが提供される。そのプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。
プログラムを流通させる場合には、例えば、そのプログラムが記録されたDVD(Digital Versatile Disc)、CD−ROM(Compact Disc Read Only Memory)などの可搬型記録媒体の形態で販売される。また、プログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することもできる。
プログラムを実行するコンピュータは、例えば、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、自己の記憶装置に格納する。そして、コンピュータは、自己の記憶装置からプログラムを読み取り、プログラムに従った処理を実行する。なお、コンピュータは、可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することもできる。また、コンピュータは、サーバコンピュータからプログラムが転送されるごとに、逐次、受け取ったプログラムに従った処理を実行することもできる。
上述した実施形態は本発明の好適な実施の例である。但し、これに限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変形実施可能である。
なお、以上の説明に関して更に以下の付記を開示する。
(付記1) 複数の選択肢を表示する表示手段と、ユーザの手又は指の動きを検知して、前記表示手段上で動かされた手又は指の位置情報を取得する取得手段と、前記取得手段が取得した手又は指の位置情報から手又は指が一定時間以上動いていて、かつ選択肢の選択が行われていないと判断すると、前記選択肢と前記選択肢の表示位置とを関連付けて持つデータベースと、前記取得手段が取得した一定時間の手又は指の位置情報とから、前記取得手段が取得した一定時間の手又は指の位置に対応する選択肢を特定し、当該特定された選択肢のうち、ユーザにより選択される可能性の高い選択肢を他の選択肢とは異なる態様で前記表示手段に表示させる表示制御手段と、を備える表示装置。
(付記2) 前記ユーザを特定するユーザ特定情報を取得するユーザ特定情報取得手段と、前記ユーザ特定情報と、当該ユーザ特定情報により特定されるユーザが過去に選択した選択肢と、を対応付けて記憶する記憶手段と、を更に備え、前記表示制御手段は、前記ユーザ特定情報により特定されるユーザが過去に選択した選択肢のうち、前記一定時間の手又は指の位置に対応する選択肢を、他の選択肢とは異なる態様で前記表示手段に表示させることを特徴とする付記1に記載の表示装置。
(付記3) 前記記憶手段は、前記ユーザ特定情報と、当該ユーザ特定情報により特定されるユーザが迷っているときに実行する手又は指の動きのパターンである迷いパターンと、当該迷いパターンの後に選択した選択肢と、を対応付けて記憶し、前記表示制御手段は、前記一定時間の手又は指の位置と予め定められている迷いパターンとを比較して、共通する場合には、前記迷いパターンに対応する選択肢を前記表示手段に表示させることを特徴とする付記2に記載の表示装置。
(付記4) 前記ユーザ特定情報取得手段が取得したユーザ特定情報に対応する選択肢が、前記記憶手段に記憶されていないときに、前記表示制御手段は、不特定のユーザにより選択される可能性の高い選択肢を他の選択肢とは異なる態様で前記表示手段に表示させることを特徴とする請求項2に記載の表示装置。
(付記5) 前記表示制御手段は、前記取得手段により取得された、前記ユーザが手又は指を動かしている範囲を、前記表示手段に拡大表示させることを特徴とする付記1〜4のいずれかに記載の表示装置。
(付記6) コンピュータを、複数の選択肢を表示する表示手段上での、ユーザの手又は指の動きを検知して、手又は指の位置情報を取得する取得手段、及び前記取得手段が取得した手又は指の位置情報から手又は指が一定時間以上動いていて、かつ選択肢の選択が行われていないと判断すると、前記選択肢と前記選択肢の表示位置とを関連付けて持つデータベースと、前記取得手段が取得した一定時間の手又は指の位置情報とから、前記取得手段が取得した一定時間の手又は指の位置に対応する選択肢を特定し、当該特定された選択肢のうち、ユーザにより選択される可能性の高い選択肢を他の選択肢とは異なる態様で前記表示手段に表示させる表示制御手段、として機能させる表示プログラム。
(付記7) 前記コンピュータを、前記ユーザを特定するユーザ特定情報を取得するユーザ特定情報取得手段、前記ユーザ特定情報と、当該ユーザ特定情報により特定されるユーザが過去に選択した選択肢と、を対応付けて記憶する記憶手段、として更に機能させ、前記表示制御手段は、前記ユーザ特定情報により特定されるユーザが過去に選択した選択肢のうち、前記一定時間の手又は指の位置に対応する選択肢を、選択肢を他の選択肢とは異なる態様で前記表示手段に表示させることを特徴とする付記6に記載の表示プログラム。
(付記8) 前記記憶手段は、前記ユーザ特定情報と、当該ユーザ特定情報により特定されるユーザが迷っているときに実行する手又は指の動きのパターンである迷いパターンと、当該迷いパターンの後に選択した選択肢と、を対応付けて記憶し、前記表示制御手段は、前記一定時間の手又は指の位置と予め定められている迷いパターンとを比較し、これらが共通する場合には、前記迷いパターンに対応する選択肢を前記表示手段に表示させることを特徴とする付記7に記載の表示プログラム。
(付記9) 前記ユーザ特定情報取得手段が取得したユーザ特定情報に対応する選択肢が、前記記憶手段に記憶されていないときに、前記表示制御手段は、不特定のユーザにより選択される可能性の高い選択肢を他の選択肢とは異なる態様で前記表示手段に表示させることを特徴とする付記7に記載の表示プログラム。
(付記10) 前記表示制御手段は、前記取得手段により取得された、前記ユーザが手又は指を動かしている範囲を、前記表示手段に拡大表示させることを特徴とする付記6〜9のいずれかに記載の表示プログラム。
(付記11) 複数の選択肢を表示する表示手段上での、ユーザの手又は指の動きを検知して、手又は指の位置情報を取得する取得工程と、前記取得工程で取得された手又は指の位置情報から手又は指が一定時間以上動いていて、かつ選択肢の選択が行われていないと判断すると、前記選択肢と前記選択肢の表示位置とを関連付けて持つデータベースと、前記取得手段が取得した一定時間の手又は指の位置情報とから、前記取得手段が取得した一定時間の手又は指の位置に対応する選択肢を特定し、当該特定された選択肢のうち、ユーザにより選択される可能性の高い選択肢を他の選択肢とは異なる態様で前記表示手段に表示させる表示工程と、をコンピュータが実行することを特徴とする表示方法。
(付記12) 前記ユーザを特定するユーザ特定情報を取得するユーザ特定情報取得工程と、前記ユーザ特定情報と、当該ユーザ特定情報により特定されるユーザが過去に選択した選択肢と、を対応付けて記憶する記憶工程と、を更に含み、前記表示制御工程では、前記ユーザ特定情報により特定されるユーザが過去に選択した選択肢のうち、前記一定時間の手又は指の位置に対応する選択肢を、他の選択肢とは異なる態様で前記表示手段に表示させることを特徴とする付記11に記載の表示方法。
(付記13) 前記記憶工程では、前記ユーザ特定情報と、当該ユーザ特定情報により特定されるユーザが迷っているときに実行する手又は指の動きのパターンである迷いパターンと、当該迷いパターンの後に選択した選択肢と、を対応付けて記憶し、前記表示制御工程では、前記一定時間の手又は指の位置と予め定められている迷いパターンとを比較し、これらが共通する場合には、前記迷いパターンに対応する選択肢を前記表示手段に表示させることを特徴とする付記12に記載の表示装置。
(付記14) 前記ユーザ特定情報取得手段が取得したユーザ特定情報に対応する選択肢が、前記記憶手段に記憶されていないときに、前記表示制御工程では、不特定のユーザにより選択される可能性の高い選択肢を他の選択肢とは異なる態様で前記表示手段に表示させることを特徴とする付記12に記載の表示方法。
(付記15) 前記表示制御工程では、前記取得手段により取得された、前記ユーザが手又は指を動かしている範囲を、前記表示手段に拡大表示させることを特徴とする付記11〜14のいずれかに記載の表示方法。
10 表示部(表示手段)
12 個人ID取得部(ユーザ情報取得手段)
14 カメラ(取得手段)
18 表示制御部(表示制御手段)
22 動き検出部(取得手段の一部)
24 動きパターン生成部(取得手段の一部)
30 データ蓄積部(記憶手段)

Claims (7)

  1. 複数の選択肢を表示する表示手段と、
    ユーザの手又は指の動きを検知して、前記表示手段上で動かされた手又は指の位置情報を取得する取得手段と、
    前記取得手段が取得した手又は指の位置情報から手又は指が一定時間以上動いていて、かつ選択肢の選択が行われていないと判断すると、前記選択肢と前記選択肢の表示位置とを関連付けて持つデータベースと、前記取得手段が取得した一定時間の手又は指の位置情報とから、前記取得手段が取得した一定時間の手又は指の位置に対応する選択肢を特定し、当該特定された選択肢のうち、ユーザにより選択される可能性の高い選択肢を他の選択肢とは異なる態様で前記表示手段に表示させる表示制御手段と、を備える表示装置。
  2. 前記ユーザを特定するユーザ特定情報を取得するユーザ特定情報取得手段と、
    前記ユーザ特定情報と、当該ユーザ特定情報により特定されるユーザが過去に選択した選択肢と、を対応付けて記憶する記憶手段と、を更に備え、
    前記表示制御手段は、前記ユーザ特定情報により特定されるユーザが過去に選択した選択肢のうち、前記一定時間の手又は指の位置に対応する選択肢を、他の選択肢とは異なる態様で前記表示手段に表示させることを特徴とする請求項1に記載の表示装置。
  3. 前記記憶手段は、前記ユーザ特定情報と、当該ユーザ特定情報により特定されるユーザが迷っているときに実行する手又は指の動きのパターンである迷いパターンと、当該迷いパターンの後に選択した選択肢と、を対応付けて記憶し、
    前記表示制御手段は、前記一定時間の手又は指の位置と予め定められている迷いパターンとを比較して、共通する場合には、前記迷いパターンに対応する選択肢を前記表示手段に表示させることを特徴とする請求項2に記載の表示装置。
  4. 前記ユーザ特定情報取得手段が取得したユーザ特定情報に対応する選択肢が、前記記憶手段に記憶されていないときに、
    前記表示制御手段は、不特定のユーザにより選択される可能性の高い選択肢を他の選択肢とは異なる態様で前記表示手段に表示させることを特徴とする請求項2に記載の表示装置。
  5. 前記表示制御手段は、前記取得手段により取得された、前記ユーザが手又は指を動かしている範囲を、前記表示手段に拡大表示させることを特徴とする請求項1〜4のいずれか一項に記載の表示装置。
  6. コンピュータを、
    複数の選択肢を表示する表示手段上での、ユーザの手又は指の動きを検知して、手又は指の位置情報を取得する取得手段、及び
    前記取得手段が取得した手又は指の位置情報から手又は指が一定時間以上動いていて、かつ選択肢の選択が行われていないと判断すると、前記選択肢と前記選択肢の表示位置とを関連付けて持つデータベースと、前記取得手段が取得した一定時間の手又は指の位置情報とから、前記取得手段が取得した一定時間の手又は指の位置に対応する選択肢を特定し、当該特定された選択肢のうち、ユーザにより選択される可能性の高い選択肢を他の選択肢とは異なる態様で前記表示手段に表示させる表示制御手段、として機能させる表示プログラム。
  7. 複数の選択肢を表示する表示手段上での、ユーザの手又は指の動きを検知して、手又は指の位置情報を取得する取得工程と、
    前記取得工程で取得された手又は指の位置情報から手又は指が一定時間以上動いていて、かつ選択肢の選択が行われていないと判断すると、前記選択肢と前記選択肢の表示位置とを関連付けて持つデータベースと、前記取得手段が取得した一定時間の手又は指の位置情報とから、前記取得手段が取得した一定時間の手又は指の位置に対応する選択肢を特定し、当該特定された選択肢のうち、ユーザにより選択される可能性の高い選択肢を他の選択肢とは異なる態様で前記表示手段に表示させる表示工程と、をコンピュータが実行することを特徴とする表示方法。
JP2009261346A 2009-11-16 2009-11-16 表示装置、表示プログラム及び表示方法 Active JP5293570B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009261346A JP5293570B2 (ja) 2009-11-16 2009-11-16 表示装置、表示プログラム及び表示方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009261346A JP5293570B2 (ja) 2009-11-16 2009-11-16 表示装置、表示プログラム及び表示方法

Publications (2)

Publication Number Publication Date
JP2011107915A true JP2011107915A (ja) 2011-06-02
JP5293570B2 JP5293570B2 (ja) 2013-09-18

Family

ID=44231319

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009261346A Active JP5293570B2 (ja) 2009-11-16 2009-11-16 表示装置、表示プログラム及び表示方法

Country Status (1)

Country Link
JP (1) JP5293570B2 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013025736A (ja) * 2011-07-26 2013-02-04 Kyocera Document Solutions Inc 表示装置及び画像形成装置
JP2013196244A (ja) * 2012-03-19 2013-09-30 Fuji Xerox Co Ltd 情報処理装置及び情報処理プログラム
JP2014016781A (ja) * 2012-07-09 2014-01-30 Ntt Docomo Inc 情報処理装置及び情報処理方法
JP2015052879A (ja) * 2013-09-06 2015-03-19 カシオ計算機株式会社 情報処理装置及びプログラム
JP2016207153A (ja) * 2015-04-28 2016-12-08 京セラドキュメントソリューションズ株式会社 電子機器及び操作画面表示プログラム
JP2017084335A (ja) * 2015-08-31 2017-05-18 コニカ ミノルタ ラボラトリー ユー.エス.エー.,インコーポレイテッド ユーザーインターフェースのリアルタイムインタラクティブ操作のためのシステム及び方法
JP2017219957A (ja) * 2016-06-06 2017-12-14 株式会社東海理化電機製作所 操作予測装置
JP2018045669A (ja) * 2016-09-12 2018-03-22 沖電気工業株式会社 生産ナビゲーションシステム、そのサポートシステム、及び、データ管理方法
JP2020016973A (ja) * 2018-07-24 2020-01-30 本田技研工業株式会社 操作補助システムおよび操作補助方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08328715A (ja) * 1995-05-31 1996-12-13 Matsushita Electric Ind Co Ltd 無人端末装置
JPH1185442A (ja) * 1997-09-03 1999-03-30 Sanyo Electric Co Ltd 情報出力装置
JPH11203006A (ja) * 1998-01-20 1999-07-30 Fujitsu Ltd ユーザ状況推定装置
JP2005071246A (ja) * 2003-08-27 2005-03-17 Nissan Motor Co Ltd 操作入力装置及び操作入力方法
JP2005165944A (ja) * 2003-12-05 2005-06-23 Sony Ericsson Mobilecommunications Japan Inc ヘルプ情報表示装置
JP2006335112A (ja) * 2005-05-31 2006-12-14 Nissan Motor Co Ltd コマンド入力装置
JP2008003816A (ja) * 2006-06-21 2008-01-10 Matsushita Electric Ind Co Ltd 操作誘導装置及び操作誘導方法
JP2008009613A (ja) * 2006-06-28 2008-01-17 Matsushita Electric Ind Co Ltd ガイダンス表示装置
JP2008257363A (ja) * 2007-04-02 2008-10-23 Toyota Motor Corp 操作支援装置

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08328715A (ja) * 1995-05-31 1996-12-13 Matsushita Electric Ind Co Ltd 無人端末装置
JPH1185442A (ja) * 1997-09-03 1999-03-30 Sanyo Electric Co Ltd 情報出力装置
JPH11203006A (ja) * 1998-01-20 1999-07-30 Fujitsu Ltd ユーザ状況推定装置
JP2005071246A (ja) * 2003-08-27 2005-03-17 Nissan Motor Co Ltd 操作入力装置及び操作入力方法
JP2005165944A (ja) * 2003-12-05 2005-06-23 Sony Ericsson Mobilecommunications Japan Inc ヘルプ情報表示装置
JP2006335112A (ja) * 2005-05-31 2006-12-14 Nissan Motor Co Ltd コマンド入力装置
JP2008003816A (ja) * 2006-06-21 2008-01-10 Matsushita Electric Ind Co Ltd 操作誘導装置及び操作誘導方法
JP2008009613A (ja) * 2006-06-28 2008-01-17 Matsushita Electric Ind Co Ltd ガイダンス表示装置
JP2008257363A (ja) * 2007-04-02 2008-10-23 Toyota Motor Corp 操作支援装置

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013025736A (ja) * 2011-07-26 2013-02-04 Kyocera Document Solutions Inc 表示装置及び画像形成装置
JP2013196244A (ja) * 2012-03-19 2013-09-30 Fuji Xerox Co Ltd 情報処理装置及び情報処理プログラム
JP2014016781A (ja) * 2012-07-09 2014-01-30 Ntt Docomo Inc 情報処理装置及び情報処理方法
JP2015052879A (ja) * 2013-09-06 2015-03-19 カシオ計算機株式会社 情報処理装置及びプログラム
JP2016207153A (ja) * 2015-04-28 2016-12-08 京セラドキュメントソリューションズ株式会社 電子機器及び操作画面表示プログラム
US10162485B2 (en) 2015-04-28 2018-12-25 Kyocera Document Solutions Inc. Electronic apparatus and non-transitory computer-readable storage medium
JP2017084335A (ja) * 2015-08-31 2017-05-18 コニカ ミノルタ ラボラトリー ユー.エス.エー.,インコーポレイテッド ユーザーインターフェースのリアルタイムインタラクティブ操作のためのシステム及び方法
JP2017219957A (ja) * 2016-06-06 2017-12-14 株式会社東海理化電機製作所 操作予測装置
JP2018045669A (ja) * 2016-09-12 2018-03-22 沖電気工業株式会社 生産ナビゲーションシステム、そのサポートシステム、及び、データ管理方法
JP7139570B2 (ja) 2016-09-12 2022-09-21 沖電気工業株式会社 生産ナビゲーションシステム
JP2020016973A (ja) * 2018-07-24 2020-01-30 本田技研工業株式会社 操作補助システムおよび操作補助方法

Also Published As

Publication number Publication date
JP5293570B2 (ja) 2013-09-18

Similar Documents

Publication Publication Date Title
JP5293570B2 (ja) 表示装置、表示プログラム及び表示方法
JP6031071B2 (ja) 自然なジェスチャに基づくユーザ・インターフェース方法及びシステム
JP5148700B2 (ja) 入力検出装置、入力検出方法、プログラムおよび記録媒体
US9204050B2 (en) Information displaying apparatus and information displaying method
EP2659336B1 (en) User interface, apparatus and method for gesture recognition
US20160180594A1 (en) Augmented display and user input device
JP6021592B2 (ja) 情報処理用プログラム、情報処理装置、情報処理システム、および情報処理方法
EP3188034A1 (en) Display terminal-based data processing method
JP6044819B2 (ja) 情報処理システム、情報処理方法、通信端末、情報処理装置およびその制御方法と制御プログラム
JP6210234B2 (ja) 画像処理システム、画像処理方法及びプログラム
CN104364753A (zh) 用于突出显示活动界面元素的方法
TW201101144A (en) A user interface
JP6334767B1 (ja) 情報処理装置、プログラム、及び情報処理方法
JPWO2014050432A1 (ja) 情報処理システム、情報処理方法及びプログラム
JP6575845B2 (ja) 画像処理システム、画像処理方法及びプログラム
JP2011096041A (ja) 姿勢情報付き生体情報による個人認証・操作指示入力方法、装置、及びプログラム
US9317145B2 (en) Information processing apparatus, information processing method, and computer readable medium
KR20170045101A (ko) 콘텐트를 외부 장치와 공유하는 전자 장치 및 이의 콘텐트 공유 방법
JP6679083B2 (ja) 情報処理システム、情報処理方法、ウェアラブル端末、及びプログラム
KR102537147B1 (ko) 인증된 증강 현실 콘텐츠의 제공 시스템 및 방법
JP7203436B2 (ja) ユーザインターフェイス装置、ユーザインターフェイスシステム及びユーザインターフェイス用プログラム
JP5998952B2 (ja) 標識画像配置支援装置及びプログラム
JP6256545B2 (ja) 情報処理装置、その制御方法、及びプログラム、並びに、情報処理システム、その制御方法、及びプログラム
KR20160089205A (ko) 아이템 관리를 위한 방법 및 전자 장치
JP7483784B2 (ja) 情報処理装置、情報処理方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120720

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130312

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130514

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130527

R150 Certificate of patent or registration of utility model

Ref document number: 5293570

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150