JP6776067B2 - 操作入力装置及びプログラム - Google Patents

操作入力装置及びプログラム Download PDF

Info

Publication number
JP6776067B2
JP6776067B2 JP2016173078A JP2016173078A JP6776067B2 JP 6776067 B2 JP6776067 B2 JP 6776067B2 JP 2016173078 A JP2016173078 A JP 2016173078A JP 2016173078 A JP2016173078 A JP 2016173078A JP 6776067 B2 JP6776067 B2 JP 6776067B2
Authority
JP
Japan
Prior art keywords
user
display
screen
authority
input device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016173078A
Other languages
English (en)
Other versions
JP2018041164A (ja
Inventor
孝浩 斉藤
孝浩 斉藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba TEC Corp
Original Assignee
Toshiba TEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba TEC Corp filed Critical Toshiba TEC Corp
Priority to JP2016173078A priority Critical patent/JP6776067B2/ja
Priority to US15/675,132 priority patent/US20180067562A1/en
Priority to EP17187883.8A priority patent/EP3291059A1/en
Publication of JP2018041164A publication Critical patent/JP2018041164A/ja
Application granted granted Critical
Publication of JP6776067B2 publication Critical patent/JP6776067B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus

Description

本発明の実施形態は、操作入力装置及びプログラムに関する。
従来、ユーザの腕(手首)等の特定部位に装着されたセンサから得られた測定値をもとに、ユーザの手や指等の動作(ジェスチャ)を非接触で認識する技術がある。係る技術では、認識した動作に対応させて、PC(Personal Computer)等の画面に配置されたポインタを移動し、ポインタの位置に対応するオブジェクトに対して処理が実行される。このような非接触式の操作入力装置のメリットとして、離れた場所から操作できる点、画面を直接触れないで操作できるため衛生的であるという点が上げられる。
しかしながら、従来の技術では、複数のユーザが非接触の操作によって、同一の表示装置上に表示された画面を操作するような場合、どのユーザの操作が画面に反映されているのか判別することは困難であった。
本発明が解決しようとする課題は、非接触式の操作入力装置において、どのユーザの操作が画面に反映されているかを容易に判別することが可能な操作入力装置を提供することである。
実施形態の操作入力装置は、非接触式の操作入力装置であって、表示制御手段と、認識手段と、付与手段とを備える。表示制御手段は、操作の対象となるメニューを配列した操作画面を表示部に表示する。認識手段は、ユーザの動作を認識する。付与手段は、前記認識手段が操作の開始を指示する第1動作を認識したことを条件に、当該第1動作を行ったユーザを識別し、当該ユーザに前記操作画面に対する操作権限を付与する。更に、表示制御手段は、前記操作権限が付与されたユーザ毎に、前記操作画面の表示形態を変更し、前記操作権限が付与されたユーザにより前記操作画面に表示されたメニューの消込操作が行われたことが前記認識手段で認識されると、当該消込操作の対象となったメニューの表示形態を変更する。
図1は、実施形態に係る操作入力装置の構成の一例を示す図である。 図2は、表示部が表示する操作画面(注文表示画面)の一例を示す図である。 図3は、実施形態の操作入力装置が備える機能構成の一例を示す図である。 図4は、ジェスチャの一例を説明するための図である。 図5は、表示部が表示する操作画面(注文表示画面)の他の例を示す図である。 図6は、実施形態の操作入力装置が実行する操作支援処理の一例を示すフローチャートである。
以下に図面を参照して、本発明に係る操作入力装置及びプログラムの実施形態を詳細に説明する。以下に示す実施形態では、本発明を飲食店等の店舗で用いられる、注文内容を表示するためのキッチンディスプレイに適用した例について説明するが、本発明はこの実施形態に限定されるものではない。
図1は、本実施形態に係る操作入力装置1の構成の一例を示す図である。図1に示すように、操作入力装置1は、表示部11と、制御部12と、通信部13と、動作認識部14とを備える。なお、制御部12、通信部13及び動作認識部14は、表示部11と一体的に構成されてもよいし、別体として構成されてもよい。
表示部11は、LCD(Liquid Crystal Display)や有機EL(Electro Luminescence)等の表示デバイスを備えた表示装置である。表示部11は、調理場等のバックヤードに設置され、制御部12による制御の下、注文されたメニュー名等の各種の情報を表示する。なお、本実施形態では、複数のユーザ(調理人、店員等)が同一の表示部11を観察(操作)することを想定しているため、表示部11は、複数のユーザが同時に観察することが可能な位置(例えば、壁の上方等)に設置することが好ましい。
制御部12は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、ROM(Read Only memory)、RAM(Random Access Memory)等のコンピュータ構成を備え、操作入力装置1の動作を制御する。また、制御部12は、動作認識部14とともに操作支援部20として機能し、表示部11に対する画面表示を制御する。
具体的に、制御部12は、操作入力装置1の操作に係る各種の操作画面(GUI(Graphical User Interface))や情報を表示部11に表示させるための制御を行う。例えば、制御部12は、通信部13により受信されたオーダ情報を記憶及び管理し、そのオーダ情報に含まれたメニュー名やオーダ数、テーブル番号等を表した注文表示画面を表示部11に表示させる。
図2は、表示部11が表示する操作画面(注文表示画面)の一例を示す図である。図2に示す注文表示画面G1では、1オーダにつき1マスの表示領域が割り当てられ、各表示領域には各注文(オーダ情報)に含まれるメニュー名及び注文数が表示される。また、各表示領域の上部には、各注文を識別できるよう、テーブル番号、オーダ時間、客数、担当者情報がそれぞれ表示される。
ユーザは、表示部11に表示された注文表示画面G1を見ることで、現在の注文状況を確認し、注文されたメニューの調理等を行う。また、ユーザは、後述する動作認識部14の機能を用いることで、注文表示画面G1に対する操作を非接触で行う。例えば、ユーザは、注文されたメニューの調理等が完了すると、そのメニューを消し込むための動作(ジェスチャ)を行うことで、注文表示画面G1から該当するメニューの消去を行う。
メニューの消し込みを行う場合、例えばユーザは、手を動かす等の所定のジェスチャを行うことで、消し込み対象のメニューの上までカーソル等のポインタP1を移動させ、当該メニューを選択する。そして、ユーザは、ポインタP1を消込ボタンB1上に移動させ、当該消込ボタンB1を選択(ボタン押下)することで、選択したメニューの消し込みを指示する。制御部12は、上記したメニューの消し込み操作が動作認識部14で認識されると、この消し込み操作で指示されたメニューを注文表示画面G1から消去する。ここで、制御部12は、消し込み操作の対象となったメニューを、破線等で表す形態としてもよい(図2のメニューM61参照)。なお、注文表示画面G1は、基本的にポインタP1の移動と操作子(メニュー、ボタン等)の選択操作とで、各種の処理を指示できるよう構成されているとする。
図1に戻り、通信部13は、有線又は無線により通信を行う通信装置である。通信部13は、店舗内に設けられたオーダ端末(図示せず)と通信し、当該オーダ端末から送信されるオーダ情報を受信する。係るオーダ端末は、例えば、店員により携帯され、店員により入力されたオーダ情報を通信部13に送信する。なお、オーダ情報には、メニュー名及び注文数の他、テーブル番号、オーダ時間、客数、接客を担当した店員の担当者情報等が含まれるものとする。
動作認識部14は、CPU、GPU、ROM、RAM等のコンピュータ構成や、各種のセンシング機器、無線通信インタフェース等を備え、ユーザが行う所定動作(ジェスチャ)を認識する。本実施形態において、動作認識部14は、制御部12とともに操作支援部20として機能し、表示部11に表示された画面に対する操作入力を非接触で受け付ける。
具体的には、動作認識部14は、ユーザによる所定動作であるジェスチャを認識し、制御部12と協働することで、表示部11に表示された画面に対する操作を非接触で受け付ける。例えば、動作認識部14は、上記したメニューの消し込み操作を認識すると、表示部11と協働することで、この消し込み操作で指示されたメニューを注文表示画面G1から消去する。なお、本実施形態では、制御部12と動作認識部14とを別体としたが、これに限らず、共通するコンピュータ構成により一体的に構成してもよい。
また、ユーザ動作の認識方法は特に問わず、公知公用の技術を用いることが可能である。例えば、動作認識部14は、CCD(Charge Coupled Device)や赤外線等のカメラにより撮像されたユーザの撮像画像から、当該ユーザの顔や動作(例えば手の動作)を認識する構成としてもよい。この場合、動作認識部14は、動作認識部14のROM等に記憶された各種のジェスチャを表す設定情報に基づき、ユーザが行った動作が何れかのジェスチャに該当するかを判定する。そして、動作認識部14は、ユーザの動作が何れかのジェスチャに該当した場合に、当該ジェスチャをユーザが行ったと認識する。係る構成としては、例えばIntel RealSense(登録商標)等に係る技術を用いることができる。
また、例えば、動作認識部14は、図1に示すように、ユーザの腕(手首)に装着される測定装置30によって測定された測定値をもとに、ユーザの動作を認識する構成としてもよい。係る測定装置30は、例えば、加速度や角速度、地磁気等を測定するための各種センサを有する。また、測定装置30は、測定対象であるユーザの特定部位に装着される。特定部位は、例えば、ユーザの腕、手首、指、頭、足等である。図1では、ユーザの手首に測定装置30(30a、30b、30c)を装着した例を示している。
ユーザの手首に装着される場合、測定装置30は、当該測定装置30を装着したユーザの手の加速度や角速度を、測定値として無線通信により動作認識部14に送信する。測定値を受信する動作認識部14は、動作認識部14のROM等に記憶された各種のジェスチャを表す設定情報に基づき、その測定値に対応するユーザの動作が何れかのジェスチャに該当するかを判定する。そして、動作認識部14は、ユーザの動作が何れかのジェスチャに該当した場合に、当該ジェスチャをユーザが行ったと認識する。なお、本実施形態では、測定装置30を用い、当該測定装置30をユーザの手首に装着する場合の例について説明する。
次に、操作入力装置1の機能構成について説明する。図3は、操作入力装置1(操作支援部20)が備える機能構成の一例を示す図である。図3に示すように、操作支援部20は、操作開始動作認識部21と、表示制御部22と、操作受付部23と、操作終了動作認識部24とを機能部として備える。これら機能部の一部又は全ては、制御部12及び動作認識部14の何れか一方又は両方のプロセッサ(CPUやGPU)と、ROM等のメモリに記憶されたプログラムとの協働によりRAM上に実現されるソフトウェア構成としてもよい。また、これら機能部の一部又は全ては、各機能を実現するよう設計された一又は複数の処理回路等によって実現されるハードウェア構成としてもよい。
操作開始動作認識部21は、何れか一のユーザにより操作の開始を指示するジェスチャ(操作開始動作)が行われると、操作開始動作を認識するとともに、その動作を行ったユーザを認識(識別)する。また、操作開始動作認識部21は、操作開始動作を行ったユーザに操作権限を付与することで、表示部11が表示する画面に対する操作入力を有効化する。
ここで、操作開始動作は、特に問わず、任意の動作を設定することが可能である。例えば、図4(a)に示すように、手を上げる動作を行った後、指打ち等の動作を行うことを操作開始動作としてもよい。ここで、指打ちとは、摘まむような形で親指と他の指(中指等)とを軽く打ち付ける動作を意味する。操作開始動作認識部21は、ROM等に記憶された操作開始動作を表す設定情報に基づき、ユーザの動作が操作開始動作に該当した場合に、当該ユーザが操作開始動作を行ったことを認識する。
また、操作者の認識(識別)方法は、特に問わず、種々の方法を採用することが可能である。本実施形態では、測定装置30毎に割り当てた固有の識別子を測定値とともに測定装置30から出力させることで、この識別子により測定装置30を装着したユーザを識別する。また、撮像画像を用いて動作の検出を行う構成の場合、顔認識によって操作の開始を指示したユーザを識別してもよい。なお、操作開始動作認識部21は、一のユーザに操作権限を付与している間は、他のユーザが操作開始動作を行ったとしても、当該他のユーザに対する操作権限の付与を抑制することで、操作画面を操作するユーザが一人となるよう排他制御を行うものとする。
表示制御部22は、操作入力装置1の操作に係る各種の操作画面(GUI)や情報を表示部11に表示させる。例えば、表示制御部22は、上述した注文表示画面G1(図2参照)等を表示部11に表示させる。
また、表示制御部22は、操作画面の表示形態を操作者毎に変更する。具体的には、表示制御部22は、操作開始動作認識部21により操作権限が付与されたユーザ毎に、注文表示画面G1の表示形態を変更する。表示形態の変更方法は特に限らず、種々の方法を採用することが可能である。例えば、図5に示すように、表示制御部22は、操作権限が付与されたユーザ毎に注文表示画面G1の背景色を切り替えてもよい。
ここで、図5は、表示部11が表示する注文表示画面G1の他の例を示す図であり、図2に対応するものである。図5に示す注文表示画面G1は、図2に示した注文表示画面G1とは異なるユーザに操作権限が付与された状態を示しており、注文表示画面G1の背景色が異なっている(図2の40a、図5の40b参照)。なお、注文表示画面G1の背景色は、ユーザ毎(測定装置30の識別子毎)に予め定められ、設定情報として保持されているものとする。この場合、例えば、各ユーザが装着する測定装置30の色を相違させ、表示制御部22は、操作入力が有効化されたユーザが装着する測定装置30の色に注文表示画面G1の背景色を切り替えるよう制御してもよい。これにより、どのユーザが操作しているか、つまりどのユーザの操作が画面に反映されているかを、注文表示画面G1の背景色によって容易に判別することができる。
なお、表示色を変える対象は注文表示画面G1の背景に限らないものとする。例えば、注文表示画面G1内に表示するポインタP1の表示色を、ユーザ毎に変更してもよい。この場合、ポインタP1の表示色は、ユーザ毎(測定装置30の識別子毎)に予め定められ、設定情報として保持されているものとする。これにより、どのユーザが操作しているか、つまりどのユーザの操作が画面に反映されているかを、ポインタP1の表示色によって容易に判別することができる。
また、例えば、表示制御部22は、操作権限が付与されたユーザ毎に、注文表示画面G1内に表示するポインタP1の形状を切り替えてもよい。この場合、ポインタP1の形状は、ユーザ毎(測定装置30の識別子毎)に予め定められ、設定情報として保持されているものとする。これにより、どのユーザが操作しているかを、ポインタP1の形状によって容易に判別することができる。
また、例えば、表示制御部22は、操作権限が付与されたユーザを表すユーザ名や、店員コード、顔画像等のユーザ情報を注文表示画面G1に表示してもよい。この場合、各ユーザのユーザ情報は、ユーザ毎(測定装置30の識別子毎)に予め定められ、設定情報として保持されているものとする。これにより、どのユーザが操作しているか、つまりどのユーザの操作が画面に反映されているかを、注文表示画面G1に表示されるユーザ情報によって容易に判別することができる。
操作受付部23は、操作権限が付与されたユーザの動作を監視し、当該ユーザが操作開始動作及び後述する操作終了動作以外の所定動作(ジェスチャ)を行ったことを認識すると、その動作に対応する操作を受け付ける。具体的に、操作受付部23は、ユーザの動作が所定の動作に該当するか否かを判定し、該当すると判定した場合に、当該動作に対応する操作を受け付ける。例えば、操作受付部23は、ユーザが手を上下左右方向の何れかに移動させると、その移動方向にポインタP1の移動を指示する操作として受け付ける。また、操作受付部23は、ユーザが指打ち等の動作を行うと、選択やボタン押下の操作として受け付ける。
操作終了動作認識部24は、操作開始動作認識部21により操作権限が付与されたユーザにより操作の終了を指示するジェスチャ(操作終了動作)が行われると、その操作終了動作を認識する。また、操作終了動作認識部24は、操作終了動作を行ったユーザの操作権限を解除することで、表示部11が表示する画面に対する操作入力を無効化する。
ここで、操作終了動作は、特に問わず、操作開始動作と同様、任意の動作を設定することが可能である。例えば、図4(b)に示すように、手を下げる動作を行った後、指打ち等の動作を行うことを操作終了動作としてもよい。操作終了動作認識部24は、ROM等に記憶された操作終了動作を表す設定情報に基づき、ユーザの動作が操作終了動作に該当した場合に、当該ユーザが操作終了動作を行ったことを認識する。
なお、表示制御部22は、操作権限の解除に伴い、表示部11に表示される操作画面を、デフォルトの表示形態、つまり何れのユーザも操作を行っていないことを表す表示形態に戻す。例えば、注文表示画面G1の背景色を変更していた場合には、表示制御部22は、デフォルトの背景色に戻す。また、例えば、ポインタP1の表示色や形状を変更していた場合には、表示制御部22は、ポインタP1の表示を消去したり、デフォルトの表示色や形状に戻したりする。また、例えば、ユーザ情報を表示していた場合には、表示制御部22は、ユーザ情報の表示を消去したり、ユーザ情報の代わりに操作者が存在しないことを表す情報を表示したりする。
以下、上記した構成の操作入力装置1の動作について説明する。図6は、操作入力装置1が実行する操作支援処理の一例を示すフローチャートである。なお、本処理の前提として、表示制御部22の制御により、操作画面がデフォルトの表示形態で表示部11に表示されているとする。
まず、操作開始動作認識部21は、何れか一のユーザにより操作開始動作が行われるまで待機する(ステップS11;No)。操作開始動作認識部21は、何れか一のユーザにより操作開始動作が行われたことを認識すると(ステップS11;Yes)、この操作開始動作を行ったユーザを識別する(ステップS12)。次いで、操作開始動作認識部21は、ステップS12で識別したユーザに操作権限を付与し、操作画面に対する操作を有効化する(ステップS13)。
続いて、表示制御部22は、操作権限が付与されたユーザに応じて、操作画面の表示形態を変更する(ステップS14)。次いで、操作支援部20は、操作権限が付与されたユーザが所定動作を行うまで待機する(ステップS15;No)。当該ユーザにより所定動作が行われると、操作支援部20は、その動作が操作終了動作か否かを判定する(ステップS16)。
ステップS16において操作終了動作(操作開始動作)以外の所定動作が認識された場合(ステップS15;Yes→ステップS16;No)、操作受付部23は、その所定動作に対応する操作を受け付ける(ステップS17)。そして、操作受付部23は、制御部12と協働することで、その操作に応じた処理を実行し(ステップS18)、ステップS15に戻る。例えば、メニューの消し込み操作が行われた場合、操作受付部23は、制御部12と協働することで、ステップS18において、消し込み操作で選択されたメニューを注文表示画面G1から消去する。
一方、ステップS16において、操作終了動作が認識されると(ステップS16;Yes)、操作終了動作認識部24は、ユーザに付与されている操作権限を解除し、操作画面に対する操作入力を無効化する(ステップS19)。そして、表示制御部22は、操作画面の表示形態をデフォルトの表示形態に変更し(ステップS20)、ステップS11に戻る。
以上のように、本実施形態の操作入力装置1は、表示部11に表示される操作画面の表示形態を、操作者(ユーザ)毎に相違させる。これにより、操作入力装置1では、複数のユーザが非接触の操作によって、表示部11上に表示された操作画面を操作するような場合であっても、どのユーザの操作が画面に反映されているかを容易に判別することができる。
以上、本発明の実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これらの新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、組み合わせ、変更を行うことができる。これらの実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
例えば、上記実施形態では、操作画面を操作するユーザが一人となるよう、操作権限の排他処理を行う形態としたが、これに限らず、複数のユーザが同時に操作できる構成としてもよい。この場合、操作開始動作認識部21は、操作開始動作を行ったユーザ毎に操作権限を付与するものとする。また、表示制御部22は、操作権限が付与されたユーザ毎に、操作画面の表示形態を変更する。具体的には、表示制御部22は、操作権限が付与されたユーザ毎に、当該ユーザが操作するポインタP1の表示色や形状を異ならせたり、メニュー等の操作子が選択された際の表示色を異ならせたりする。これにより、複数のユーザが表示部11に表示された操作画面を同時に操作するような場合であっても、どのユーザの操作が画面に反映されているか容易に判別することができる。
1 操作入力装置
11 表示部
12 制御部
13 通信部
14 動作認識部
20 操作支援部
21 操作開始動作認識部
22 表示制御部
23 操作受付部
24 操作終了動作認識部
30 測定装置
特開2015−99574号公報 特開2016−62274号公報

Claims (6)

  1. 非接触式の操作入力装置であって、
    操作の対象となるメニューを配列した操作画面を表示部に表示する表示制御手段と、
    ユーザの動作を認識する認識手段と、
    前記認識手段が操作の開始を指示する第1動作を認識したことを条件に、当該第1動作を行ったユーザを識別し、当該ユーザに前記操作画面に対する操作権限を付与する付与手段と、
    を備え、
    前記表示制御手段は、前記操作権限が付与されたユーザ毎に、前記操作画面の表示形態を変更し、前記操作権限が付与されたユーザにより前記操作画面に表示されたメニューの消込操作が行われたことが前記認識手段で認識されると、当該消込操作の対象となったメニューの表示形態を変更する操作入力装置。
  2. 前記表示制御手段は、前記操作権限が付与されたユーザ毎に、前記操作画面の背景色を変更する請求項1に記載の操作入力装置。
  3. 前記表示制御手段は、前記操作権限が付与されたユーザ毎に、前記操作画面に表示するカーソルの表示色又は形状を変更する請求項1又は2に記載の操作入力装置。
  4. 前記表示制御手段は、前記操作権限が付与されたユーザを表すユーザ情報を、前記操作画面に表示する請求項1〜3の何れか一項に記載の操作入力装置。
  5. 前記認識手段が操作の終了を指示する第2動作を認識したことを条件に、当該第2動作を行ったユーザに付与されている前記操作権限を解除する解除手段を更に備え、
    前記付与手段は、一のユーザに付与した前記操作権限が前記解除手段により解除されるまで、他のユーザに対する前記操作権限の付与を抑制する請求項1〜4の何れか一項に記載の操作入力装置。
  6. 非接触式の操作入力装置のコンピュータを、
    操作の対象となるメニューを配列した操作画面を表示部に表示する表示制御手段と、
    ユーザの動作を認識する認識手段と、
    前記認識手段が操作の開始を指示する第1動作を認識したことを条件に、当該第1動作を行ったユーザを識別し、当該ユーザに前記操作画面に対する操作権限を付与する付与手段と、
    して機能させ、
    前記表示制御手段は、前記操作権限が付与されたユーザ毎に、前記操作画面の表示形態を変更し、前記操作権限が付与されたユーザにより前記操作画面に表示されたメニューの消込操作が行われたことが前記認識手段で認識されると、当該消込操作の対象となったメニューの表示形態を変更するプログラム。
JP2016173078A 2016-09-05 2016-09-05 操作入力装置及びプログラム Active JP6776067B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2016173078A JP6776067B2 (ja) 2016-09-05 2016-09-05 操作入力装置及びプログラム
US15/675,132 US20180067562A1 (en) 2016-09-05 2017-08-11 Display system operable in a non-contact manner
EP17187883.8A EP3291059A1 (en) 2016-09-05 2017-08-25 Display system operable in a non-contact manner

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016173078A JP6776067B2 (ja) 2016-09-05 2016-09-05 操作入力装置及びプログラム

Publications (2)

Publication Number Publication Date
JP2018041164A JP2018041164A (ja) 2018-03-15
JP6776067B2 true JP6776067B2 (ja) 2020-10-28

Family

ID=59702597

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016173078A Active JP6776067B2 (ja) 2016-09-05 2016-09-05 操作入力装置及びプログラム

Country Status (3)

Country Link
US (1) US20180067562A1 (ja)
EP (1) EP3291059A1 (ja)
JP (1) JP6776067B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10185401B2 (en) * 2016-09-29 2019-01-22 Intel Corporation Determination of cursor position on remote display screen based on bluetooth angle of arrival
CN113359971A (zh) * 2020-03-06 2021-09-07 中光电创境股份有限公司 显示控制方法、显示控制系统及穿戴式装置
US11416079B2 (en) 2020-12-03 2022-08-16 Motorola Mobility Llc Snap motion gesture detection and response
US11769134B2 (en) 2021-03-22 2023-09-26 International Business Machines Corporation Multi-user interactive ad shopping using wearable device gestures
WO2023210164A1 (ja) * 2022-04-26 2023-11-02 住友電気工業株式会社 アニメーション操作方法、アニメーション操作プログラム及びアニメーション操作システム

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2986671B2 (ja) * 1994-02-01 1999-12-06 三菱電機株式会社 注文表示装置及び配膳票管理装置及び注文管理装置
JPH09269963A (ja) * 1996-04-03 1997-10-14 Mitsubishi Electric Corp 食券方式による飲食店向けサービスシステム
JP4058602B2 (ja) * 2000-12-04 2008-03-12 株式会社タック 食堂サービスシステム
JP4587245B2 (ja) * 2000-12-27 2010-11-24 株式会社タック セルフサービス飲食店用サービスシステム
US20080136775A1 (en) * 2006-12-08 2008-06-12 Conant Carson V Virtual input device for computing
US8555207B2 (en) * 2008-02-27 2013-10-08 Qualcomm Incorporated Enhanced input using recognized gestures
JP2009258914A (ja) * 2008-04-15 2009-11-05 Canon Inc 情報処理装置及びプログラム、情報処理システム
WO2010009418A1 (en) * 2008-07-18 2010-01-21 Wei Gu Systems and methods for controlling computers and devices
JP5120136B2 (ja) * 2008-08-05 2013-01-16 ブラザー工業株式会社 表示制御装置及びそれに用いるリモコン並びにテレビ会議システム。
JP5151868B2 (ja) * 2008-09-30 2013-02-27 ブラザー工業株式会社 表示制御装置及びテレビ会議システム。
JP2010277176A (ja) * 2009-05-26 2010-12-09 Ricoh Co Ltd 情報処理装置、情報処理システム、及び、情報処理方法
US20110199303A1 (en) * 2010-02-18 2011-08-18 Simpson Samuel K Dual wrist user input system
WO2011104709A2 (en) * 2010-02-23 2011-09-01 Rami Parham A system for projecting content to a display surface having user-controlled size, shape and location/direction and apparatus and methods useful in conjunction therewith
US9218058B2 (en) * 2011-06-16 2015-12-22 Daniel Bress Wearable digital input device for multipoint free space data collection and analysis
WO2013061156A2 (en) * 2011-10-27 2013-05-02 Cell Rox, Ltd. Systems and method for implementing multiple personas on mobile technology platforms
EP2801215B1 (en) * 2012-01-03 2019-12-11 LG Electronics Inc. Image display apparatus and method for operating the same
US9170674B2 (en) * 2012-04-09 2015-10-27 Qualcomm Incorporated Gesture-based device control using pressure-sensitive sensors
JP5916566B2 (ja) * 2012-08-29 2016-05-11 アルパイン株式会社 情報システム
JP6019947B2 (ja) * 2012-08-31 2016-11-02 オムロン株式会社 ジェスチャ認識装置、その制御方法、表示機器、および制御プログラム
US8990734B2 (en) * 2012-10-15 2015-03-24 Nextep Systems, Inc. Method and assembly for displaying menu options
US9436165B2 (en) * 2013-03-15 2016-09-06 Tyfone, Inc. Personal digital identity device with motion sensor responsive to user interaction
JP2015099574A (ja) * 2013-11-20 2015-05-28 株式会社東芝 認識装置、認識方法、認識プログラム及び端末装置
US10444849B2 (en) * 2014-09-01 2019-10-15 Yinbo Li Multi-surface controller
US9864434B2 (en) * 2016-03-30 2018-01-09 Huami Inc. Gesture control of interactive events using multiple wearable devices

Also Published As

Publication number Publication date
EP3291059A1 (en) 2018-03-07
JP2018041164A (ja) 2018-03-15
US20180067562A1 (en) 2018-03-08

Similar Documents

Publication Publication Date Title
JP6776067B2 (ja) 操作入力装置及びプログラム
Lee et al. Interaction methods for smart glasses: A survey
JP6415592B2 (ja) ウェアラブル装置
EP2724213B1 (en) Intelligent stylus
US20170038838A1 (en) Information processing system and information processing method
JPH0844490A (ja) インターフェイス装置
CN104246661A (zh) 使用手势与装置交互
JP2004078977A (ja) インターフェイス装置
US9639164B2 (en) Gesture input method
KR102166330B1 (ko) 의료 진단 장치의 사용자 인터페이스 제공 방법 및 장치
WO2007061057A1 (ja) ジェスチャー入力装置、及び方法
US20140022171A1 (en) System and method for controlling an external system using a remote device with a depth sensor
JP2015121979A (ja) 装着型情報入力装置、情報入力システム、及び情報入力方法
US20180324366A1 (en) Electronic make-up mirror device and background switching method thereof
KR101749070B1 (ko) 사용자 인터페이스 평가 장치 및 그 평가 방법
US10437415B2 (en) System, method, and device for controlling a display
US20160291832A1 (en) Method and program for displaying information
WO2013183533A1 (ja) 表示装置、表示方法及びプログラム
JP6446967B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP6762812B2 (ja) 操作入力装置及びプログラム
US20160004384A1 (en) Method of universal multi-touch input
CN108958590A (zh) 应用于头戴式显示设备的菜单操作方法及头戴式显示设备
JP2021079686A5 (ja)
JP2015122124A (ja) 仮想マウスによるデータ入力機能を有する情報装置
CN106095088B (zh) 一种电子设备及其图像处理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190821

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200622

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200630

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200824

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200908

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201007

R150 Certificate of patent or registration of utility model

Ref document number: 6776067

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150