JP7534207B2 - 表示装置、表示方法、及び表示プログラム - Google Patents

表示装置、表示方法、及び表示プログラム Download PDF

Info

Publication number
JP7534207B2
JP7534207B2 JP2020209252A JP2020209252A JP7534207B2 JP 7534207 B2 JP7534207 B2 JP 7534207B2 JP 2020209252 A JP2020209252 A JP 2020209252A JP 2020209252 A JP2020209252 A JP 2020209252A JP 7534207 B2 JP7534207 B2 JP 7534207B2
Authority
JP
Japan
Prior art keywords
user
input
area
operation area
display screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020209252A
Other languages
English (en)
Other versions
JP2022096251A (ja
Inventor
晃一 杉山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2020209252A priority Critical patent/JP7534207B2/ja
Priority to US17/549,773 priority patent/US20220197396A1/en
Publication of JP2022096251A publication Critical patent/JP2022096251A/ja
Application granted granted Critical
Publication of JP7534207B2 publication Critical patent/JP7534207B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、表示画面に対してユーザーの非接触による入力操作を受け付ける表示装置、表示方法、及び表示プログラムに関する。
従来、表示パネルの表示画面に対して非接触で指示操作などの入力操作(画面操作)を行なうことが可能な表示装置が知られている。例えば、操作者の骨格を撮像データに基づいて取得し、骨格情報に基づいて長方形の仮想タッチパネル(仮想操作領域)を設定して操作者の入力操作を受け付けるシステムが知られている(例えば特許文献1参照)。
特開2016-134022号公報
しかし、従来の技術では、骨格情報に基づいて自動的に仮想操作領域が設定されるため、ユーザーが仮想操作領域を自分で指定して設定することができず、入力操作の操作性が悪いという問題が生じる。
本発明の目的は、表示画面に対してユーザーの非接触による入力操作を受け付ける表示装置においてユーザーの入力操作の操作性を向上させることが可能な表示装置、表示方法、及び表示プログラムを提供することにある。
本発明の一の態様に係る表示装置は、表示画面に対してユーザーの非接触による入力操作を受け付ける表示装置であって、前記ユーザーの所定のジェスチャー操作を検出するジェスチャー操作検出部と、前記ジェスチャー操作検出部が前記ユーザーの第1ジェスチャー操作を検出した場合に、前記第1ジェスチャー操作に応じた領域を前記表示画面に対する前記ユーザーの前記入力操作を受け付ける仮想操作領域として設定する操作領域設定部と、前記ユーザーの前記入力操作を検出する入力操作検出部と、前記入力操作検出部が前記操作領域設定部により設定された前記仮想操作領域において前記ユーザーの前記入力操作を検出した場合に、前記表示画面に対する前記ユーザーの前記入力操作に応じた入力処理を実行する入力処理部と、を備える。
本発明の他の態様に係る表示方法は、表示画面に対してユーザーの非接触による入力操作を受け付ける表示方法であって、一又は複数のプロセッサーが、前記ユーザーの所定のジェスチャー操作を検出するジェスチャー操作検出ステップと、前記ジェスチャー操作検出ステップにおいて前記ユーザーの第1ジェスチャー操作を検出した場合に、前記第1ジェスチャー操作に応じた領域を前記表示画面に対する前記ユーザーの前記入力操作を受け付ける仮想操作領域として設定する操作領域設定ステップと、前記ユーザーの前記入力操作を検出する入力操作検出ステップと、前記入力操作検出ステップにおいて、前記操作領域設定ステップにより設定された前記仮想操作領域において前記ユーザーの前記入力操作を検出した場合に、前記表示画面に対する前記ユーザーの前記入力操作に応じた入力処理を実行する入力ステップと、を実行する方法である。
本発明の他の態様に係る表示プログラムは、表示画面に対してユーザーの非接触による入力操作を受け付ける表示プログラムであって、前記ユーザーの所定のジェスチャー操作を検出するジェスチャー操作検出ステップと、前記ジェスチャー操作検出ステップにおいて前記ユーザーの第1ジェスチャー操作を検出した場合に、前記第1ジェスチャー操作に応じた領域を前記表示画面に対する前記ユーザーの前記入力操作を受け付ける仮想操作領域として設定する操作領域設定ステップと、前記ユーザーの前記入力操作を検出する入力操作検出ステップと、前記入力操作検出ステップにおいて、前記操作領域設定ステップにより設定された前記仮想操作領域において前記ユーザーの前記入力操作を検出した場合に、前記表示画面に対する前記ユーザーの前記入力操作に応じた入力処理を実行する入力ステップと、を一又は複数のプロセッサーに実行させるためのプログラムである。
本発明によれば、表示画面に対してユーザーの非接触による入力操作を受け付ける表示装置においてユーザーの入力操作の操作性を向上させることが可能である。
図1は、本発明の実施形態に係る表示装置の構成を示すブロック図である。 図2は、本発明の実施形態に係る表示装置における仮想操作領域の一例を示す模式図である。 図3は、本発明の実施形態に係る表示装置における仮想操作領域の設定方法の一例を示す図である。 図4は、本発明の実施形態に係る表示装置における仮想操作領域の設定方法の一例を示す図である。 図5は、本発明の実施形態に係る表示装置における仮想操作領域の設定方法の一例を示す図である。 図6は、本発明の実施形態に係る表示装置における仮想操作領域の設定方法の一例を示す図である。 図7は、本発明の実施形態に係る表示装置における仮想操作領域の設定方法の一例を示す図である。 図8は、本発明の実施形態に係る表示装置における仮想操作領域の設定方法の一例を示す図である。 図9は、本発明の実施形態に係る表示装置における仮想操作領域の設定方法の一例を示す図である。 図10は、本発明の実施形態に係る表示装置における仮想操作領域の設定方法の一例を示す図である。 図11は、本発明の実施形態に係る表示装置における仮想操作領域の設定方法の一例を示す図である。 図12は、本発明の実施形態に係る表示装置で実行される表示制御処理の手順の一例を説明するためのフローチャートである。
以下、添付図面を参照しながら、本発明の実施形態について説明する。なお、以下の実施形態は、本発明を具体化した一例であって、本発明の技術的範囲を限定する性格を有さない。
図1に示すように、本発明の実施形態に係る表示装置1は、制御部11と、記憶部12と、表示パネル13と、操作部14と、モーションセンサ15とを備えている。図2には、表示装置1の模式図を示している。モーションセンサ15は、表示パネル13の上部に設置され、ユーザーの所定のジェスチャー操作及び入力操作を検出する。
表示装置1は、表示画面13Aに対してユーザーの非接触による入力操作を受け付ける。例えば、表示装置1は、ユーザーの所定のジェスチャー操作を検出すると、前記ジェスチャー操作に応じた領域を表示画面13Aに対するユーザーの前記入力操作を受け付ける仮想操作領域R2(図2参照)として設定する。ユーザーは、仮想操作領域R2においてタッチ操作(入力操作)を行なう。表示装置1は、仮想操作領域R2においてユーザーの前記入力操作を検出すると、表示画面13Aに対するユーザーの前記入力操作に応じた入力処理を実行する。例えば、ユーザーが仮想操作領域R2の所定の位置をタッチ操作した場合に、表示装置1は、仮想操作領域R2におけるタッチ位置に対応する表示画面13A上の位置を検出してタッチ入力を受け付ける。以下、表示装置1の具体的構成について説明する。
モーションセンサ15は、例えば2個のカメラと3個の赤外線LEDとを備え、所定の検知範囲においてユーザーの前記ジェスチャー操作及び前記入力操作を検知する。モーションセンサ15は、検知情報を制御部11に出力する。前記検知情報には、モーションセンサ15を基準とした検出対象物(例えばユーザーの手)の位置座標(X座標、Y座標、Z座標)が含まれる。モーションセンサ15は、例えばユーザーの手(右手RH、左手LH)の甲(掌)、指の関節、指先などを検知することが可能である。モーションセンサ15は、周知の技術を適用することができる。
表示パネル13は、画像を表示するディスプレイであり、例えば液晶ディスプレイである。操作部14は、マウス、キーボードなどの操作機器である。なお、操作部14は、タッチパネルで構成されてもよい。
記憶部12は、各種の情報を記憶するHDD(Hard Disk Drive)又はSSD(Solid State Drive)などの不揮発性の記憶部である。具体的には、記憶部12には、操作領域情報D1、仮想操作領域情報D2、ジェスチャー操作情報D3などのデータが記憶される。
操作領域情報D1は、表示パネル13の表示画面13Aにおける操作領域R1を示す情報である。操作領域R1は、表示画面13Aのうちユーザーが仮想操作領域R2を介して入力操作を行うことが可能な領域、すなわちユーザーの入力操作を受け付け可能な領域である。操作領域R1は、表示画面13Aの全領域に設定されてもよいし、表示画面13Aの一部の領域に設定されてもよい。例えば表示画面13Aの全領域が操作領域R1に設定される場合、操作領域情報D1には、操作領域R1を規定する座標情報として、表示画面13Aの四隅の座標C11~C14(図2参照)の情報が含まれる。操作領域情報D1は、操作領域R1が設定又は更新されるごとに記憶部12に登録される。
仮想操作領域情報D2は、表示画面13Aに対するユーザーの前記入力操作を受け付ける仮想操作領域R2を示す情報である。具体的には、仮想操作領域R2は、操作領域R1に対応しており、仮想操作領域R2を規定する四隅の座標C21~C24(図2参照)と操作領域R1を規定する座標C11~C14とが対応付けられる。仮想操作領域情報D2には、仮想操作領域R2を規定する四隅の座標C21~C24の情報が含まれる。仮想操作領域情報D2は、仮想操作領域R2が設定又は更新されるごとに記憶部12に登録される。ユーザーは、後述する所定のジェスチャー操作を行うことにより、所望の位置に所望の大きさの仮想操作領域R2を設定することができる。
ジェスチャー操作情報D3は、ユーザーによる所定のジェスチャー操作に関する情報である。ジェスチャー操作情報D3には、例えば、ユーザーの左手を翳す操作(左手の掌を翳す操作)、右手を翳す操作(右手の掌を翳す操作)、左手の拳を握る操作(左手のグー操作)、右手の拳を握る操作(右手のグー操作)、右手の指差し操作(右手人差し指の指差し操作)、左手の指差し操作(左手人差し指の指差し操作)などの複数の特定のジェスチャー操作の情報が含まれる。ジェスチャー操作情報D3は、予め記憶部12に登録される。
また、記憶部12には、制御部11に後述の表示制御処理(図12参照)を実行させるための表示制御プログラムなどの制御プログラムが記憶されている。例えば、前記表示制御プログラムは、CD又はDVDなどのコンピュータ読取可能な記録媒体に非一時的に記録され、表示装置1が備えるCDドライブ又はDVDドライブなどの読取装置(不図示)で読み取られて記憶部12に記憶される。なお、前記表示制御プログラムは、クラウドサーバーから配信されて記憶部12に記憶されてもよい。
制御部11は、CPU、ROM、及びRAMなどの制御機器を有する。前記CPUは、各種の演算処理を実行するプロセッサーである。前記ROMは、前記CPUに各種の演算処理を実行させるためのBIOS及びOSなどの制御プログラムが予め記憶される不揮発性の記憶部である。前記RAMは、各種の情報を記憶する揮発性又は不揮発性の記憶部であり、前記CPUが実行する各種の処理の一時記憶メモリー(作業領域)として使用される。そして、制御部11は、前記ROM又は記憶部12に予め記憶された各種の制御プログラムを前記CPUで実行することにより表示装置1を制御する。
具体的に、制御部11は、図1に示すように、ジェスチャー操作検出部111、操作領域設定部112、操作領域調整部113、入力操作検出部114、及び入力処理部115などの各種の処理部を含む。なお、制御部11は、前記CPUで前記表示制御プログラム及びに従った各種の処理を実行することによって、ジェスチャー操作検出部111、操作領域設定部112、操作領域調整部113、入力操作検出部114、及び入力処理部115として機能する。また、制御部11に含まれる一部又は全部の処理部が電子回路で構成されていてもよい。なお、前記表示制御プログラムは、複数のプロセッサーを前記各種の処理部として機能させるためのプログラムであってもよい。
ジェスチャー操作検出部111は、ユーザーのジェスチャー操作を検出する。具体的には、ジェスチャー操作検出部111は、モーションセンサ15から取得する検知情報に基づいて、前記ジェスチャー操作を検出する。例えば、ジェスチャー操作検出部111は、前記検知情報に含まれる座標情報に基づいてユーザーの手の形状を特定して、ジェスチャー操作情報D3に登録された複数のジェスチャー操作のうち該当するジェスチャー操作を特定する。また、ジェスチャー操作検出部111は、表示画面13Aに表示された画像に対するタッチ入力操作、仮想操作領域R2における描画操作などのジェスチャー操作(本発明の第3ジェスチャー操作の一例)を検出する。
操作領域設定部112は、仮想操作領域R2を設定する。具体的には、操作領域設定部112は、ジェスチャー操作検出部111がユーザーの所定の第1ジェスチャー操作(本発明の第1ジェスチャー操作)を検出した場合に、当該第1ジェスチャー操作に応じた領域を表示画面13Aに対するユーザーの入力操作を受け付ける仮想操作領域R2として設定する。なお、操作領域設定部112は、前記第1ジェスチャー操作が所定時間継続して行われた場合に仮想操作領域R2を設定してもよい。前記第1ジェスチャー操作は、例えば左手LH及び右手RHのそれぞれの掌を表示画面13Aに向けて翳す操作である。すなわち、前記第1ジェスチャー操作は、ユーザーが仮想操作領域R2を設定するための設定操作である。
例えば図3に示すように、ユーザーが左手LHの掌を左上の任意の位置で表示画面13Aに翳し、右手RHの掌を右下の任意の位置で表示画面13Aに翳すと、ジェスチャー操作検出部111は、モーションセンサ15から取得する検知情報に基づいて、左手LHの座標P1と、右手RHの座標P2と、左手LH及び右手RHを翳す第1ジェスチャー操作とを検出する。ジェスチャー操作検出部111が第1ジェスチャー操作を検出すると、操作領域設定部112は、ジェスチャー操作検出部111が検出した左手LHの座標P1と右手RHの座標P2とに基づいて仮想操作領域R2を設定する。
例えば図3に示すように、操作領域設定部112は、左手LHの位置(座標P1)と右手RHの位置(座標P2)とを結ぶ線を対角線とする矩形の仮想操作領域R2を設定する。具体的には、操作領域設定部112は、左手LHの座標P1及び右手RHの座標P2に基づいて矩形の角部の座標C21~C24(図2参照)を算出して仮想操作領域R2を設定する。
また、例えば、操作領域設定部112は、表示画面13Aから所定距離L1だけ離れた位置に仮想操作領域R2を設定する。なお、所定距離L1は、左手LHの座標P1(Z座標)及び右手RHの座標P2(Z座標)に対応する距離である。
また、例えば、操作領域設定部112は、縦横比が表示画面13Aの縦横比と同一比率の仮想操作領域R2を設定してもよい。具体的には、図4に示すように、操作領域設定部112は、表示画面13Aの縦横比(H1:W1)と仮想操作領域R2の縦横比(H2:W2)とが同一(H1:W1=H2:W2)となる仮想操作領域R2を設定する。
このように、表示画面13A(操作領域R1)の大きさと仮想操作領域R2の大きさは、同一であってもよいし異なってもよい。ここで、仮想操作領域R2が操作領域R1よりも小さい場合は、大型の表示パネル13をユーザーの手元で操作する用途に好適である。これに対して、仮想操作領域R2が操作領域R1よりも大きい場合は、小型の表示パネル13を離れた位置で操作する用途に好適である。
また、図5に示すように、操作領域設定部112は、表示画面13Aに対して平行でない所定角度d1を有する仮想操作領域R2を設定してもよい。すなわち、仮想操作領域R2は、表示画面13Aに対して斜め方向に設定されてもよい。例えば、操作領域設定部112は、左手LHの座標P1(Z座標)と、右手RHの座標P2(Z座標)とに基づいて所定角度d1を設定する。これにより、ユーザーは表示画面13Aに対して斜め方向から入力操作を行うことが可能になる。なお、操作領域設定部112は、所定角度d1の情報を表示画面13Aに表示させてもよい。これにより、ユーザーは表示画面13Aに対する仮想操作領域R2の角度(傾き度合い)を把握することができる。
また、操作領域設定部112は、表示画面13Aの一部の領域に対応する仮想操作領域R2を設定してもよい。例えば図6に示すように、操作領域設定部112は、表示画面13Aの一部(左側領域)の操作領域R1に対応する仮想操作領域R2を設定する。操作領域R1の位置及び大きさは、ユーザーの設定操作により設定することが可能である。なお、仮想操作領域R2を設定するユーザーが操作領域R1を把握し易いように、操作領域設定部112は、仮想操作領域R2を設定する際に、図7に示すように、操作領域R1を示すオブジェクト画像T1(本発明の第1オブジェクト画像の一例)を表示画面13Aに表示させてもよい。
なお、操作領域設定部112は、周知の座標変換(射影変換、アフィン変換など)を利用して、第1ジェスチャー操作に対応する座標に基づいて表示画面13Aの操作領域R1に関連付けられた仮想操作領域R2を設定することができる。
操作領域調整部113は、操作領域設定部112により設定される仮想操作領域R2を調整する。具体的には、操作領域調整部113は、仮想操作領域R2が設定された後にジェスチャー操作検出部111がユーザーの所定の第2ジェスチャー操作(本発明の第2ジェスチャー操作)を検出した場合に、第2ジェスチャー操作に基づいて仮想操作領域R2の大きさ及び位置の少なくともいずれかを変更する。前記第2ジェスチャー操作は、例えば右手RHによる指差し操作(図8参照)である。
例えば図8に示すように、仮想操作領域R2が設定された後にユーザーが右手RHで表示画面13Aを指差し操作した場合に、ジェスチャー操作検出部111は、モーションセンサ15から取得する検知情報に基づいて、右手RHの座標P3と、右手RHによる指差し操作の第2ジェスチャー操作とを検出する。ジェスチャー操作検出部111が前記第2ジェスチャー操作を検出すると、操作領域調整部113は、ジェスチャー操作検出部111が検出した右手RHの座標P3に基づいて仮想操作領域R2を移動可能に設定し、ユーザーによる仮想操作領域R2の移動操作を受け付ける。例えばユーザーが右手RHを指差しの状態のまま左方向に動かすと、操作領域調整部113は、仮想操作領域R2を右手RHの移動量に応じた分だけ左方向に移動させる。すなわち、操作領域調整部113は、移動後の右手RHの座標P3に仮想操作領域R2を設定する。
また、例えば図9に示すように、仮想操作領域R2が設定された後にユーザーが左手LHを翳したまま右手RHの拳を握る操作をした場合に、ジェスチャー操作検出部111は、モーションセンサ15から取得する検知情報に基づいて、左手LHの座標P1と、右手RHの座標P2と、左手LHを翳し右手RHを握る第2ジェスチャー操作とを検出する。ジェスチャー操作検出部111が前記第2ジェスチャー操作を検出すると、操作領域調整部113は、ジェスチャー操作検出部111が検出した右手RHの座標P2に基づいて仮想操作領域R2の大きさを変更可能に設定し、ユーザーによる仮想操作領域R2の大きさの変更操作を受け付ける。例えばユーザーが右手RHを拳を握ったまま右下方向に動かすと、操作領域調整部113は、仮想操作領域R2を右手RHの移動量に応じた分だけ大きさ(面積)を拡大する。すなわち、操作領域調整部113は、左手LHの座標P1と移動後の右手RHの座標P2により規定される仮想操作領域R2を設定する。
図10に示す例では、仮想操作領域R2が設定された後にユーザーが右手RHを翳したまま左手LHの拳を握る操作をした場合の例を示している。この場合、ジェスチャー操作検出部111は、モーションセンサ15から取得する検知情報に基づいて、左手LHの座標P1と、右手RHの座標P2と、右手RHを翳し左手LHを握る第2ジェスチャー操作とを検出する。ジェスチャー操作検出部111が前記第2ジェスチャー操作を検出すると、操作領域調整部113は、ジェスチャー操作検出部111が検出した左手LHの座標P1に基づいて仮想操作領域R2の大きさを変更可能に設定し、ユーザーによる仮想操作領域R2の大きさの変更操作を受け付ける。例えばユーザーが左手LHを拳を握ったまま右下方向に動かすと、操作領域調整部113は、仮想操作領域R2を左手LHの移動量に応じた分だけ大きさ(面積)を縮小する。すなわち、操作領域調整部113は、右手RHの座標P2と移動後の左手LHの座標P1により規定される仮想操作領域R2を設定する。
なお、操作領域調整部113は、仮想操作領域R2が設定された後にジェスチャー操作検出部111が前記第2ジェスチャー操作を検出した場合に、仮想操作領域R2を示すオブジェクト画像T2(本発明の第2オブジェクト画像の一例)を前記第2ジェスチャー操作に応じて表示画面13Aに表示させてもよい。図11には、大きさが変更された後の仮想操作領域R2を示すオブジェクト画像T2の一例を示している。この構成によれば、ユーザーは、仮想操作領域R2の変更後の大きさ、位置などを視覚的に把握することが可能になる。
入力操作検出部114は、ユーザーの入力操作を検出する。具体的には、入力操作検出部114は、操作領域設定部112により設定された仮想操作領域R2においてユーザーの前記入力操作を検出する。例えば、入力操作検出部114は、モーションセンサ15から取得する検知情報に基づいて、仮想操作領域R2における検知座標を検出し、当該検知座標から操作領域R1における入力座標を算出する。前記入力操作は、表示画面13Aに表示された画像に対するタッチ入力操作であり、本発明の第3ジェスチャー操作の一例である。
ここで、仮想操作領域R2と操作領域R1の比率を、「W2:W1=H2:H1=a:b」とした場合(図4参照)、入力操作検出部114は、仮想操作領域R2における検知座標[sx,sy]に基づいて、入力座標[dx、dy]をdx=sx×b/a、dy=sy×b/aの式で算出することができる。なお、表示解像度[rx,ry]は、Min[dx、dy]=[0,0]、Max[dx、dy]=[dx、dy]である。
入力処理部115は、入力操作検出部114が仮想操作領域R2においてユーザーの前記入力操作(第3ジェスチャー操作)を検出した場合に、表示画面13Aに対するユーザーの前記入力操作に応じた入力処理を実行する。例えば、入力操作検出部114が仮想操作領域R2において表示画面13Aに表示されたオブジェクト画像に対するユーザーのタッチ操作を検出した場合、入力処理部115は、タッチ位置に対応する表示画面13A上の位置を検出してタッチ入力を受け付ける。
[表示制御処理]
以下、図12を参照しつつ、表示装置1の制御部11によって実行される表示制御処理について説明する。
なお、本発明は、前記表示制御処理に含まれる一又は複数のステップを実行する表示制御方法(本発明の表示方法の一例)の発明として捉えることができ、ここで説明する表示制御処理に含まれる一又は複数のステップが適宜省略されてもよい。なお、前記表示制御処理における各ステップは同様の作用効果を生じる範囲で実行順序が異なってもよい。さらに、ここでは制御部11が前記表示制御処理における各ステップを実行する場合を例に挙げて説明するが、複数のプロセッサーが当該表示制御処理における各ステップを分散して実行する表示制御方法も他の実施形態として考えられる。
先ずステップS11において、制御部11は、所定の第1ジェスチャー操作を検出したか否かを判定する。前記第1ジェスチャー操作は、例えば左手LH及び右手RHのそれぞれの掌を表示画面13Aに向けて翳す操作(設定操作)である(図3参照)。制御部11が前記第1ジェスチャー操作を検出した場合(S11:Yes)、処理はステップS12に移行する。制御部11が前記第1ジェスチャー操作を検出しない場合(S11:No)、処理はステップS16に移行する。ステップS11は、本発明のジェスチャー操作検出ステップの一例である。
ステップS12では、制御部11は、前記第1ジェスチャー操作に対応する位置座標を検出する。ここでは、制御部11は、左手LH及び右手RHのそれぞれの座標P1,P2(図3参照)を検出する。
次にステップS13において、制御部11は、仮想操作領域R2を設定する。例えば、制御部11は、ステップS12において検出した左手LH及び右手RHのそれぞれの座標P1,P2を結ぶ直線を対角線とする矩形を仮想操作領域R2として、表示画面13Aから所定距離L1だけ離れた位置に設定する(図3参照)。ステップS13は、本発明の操作領域設定ステップの一例である。
次にステップS14において、制御部11は、ユーザーの入力操作を検出したか否かを判定する。具体的には、制御部11は、仮想操作領域R2においてユーザーの前記入力操作を検出する。例えば、制御部11は、モーションセンサ15から取得する検知情報に基づいて、仮想操作領域R2における検知座標を検出し、当該検知座標から表示画面13Aの操作領域R1における入力座標を算出する。制御部11が前記入力操作を検出した場合(S14:Yes)、処理はステップS15に移行する。制御部11が前記入力操作を検出しない場合(S14:No)、処理はステップS16に移行する。ステップS14は、本発明の入力操作検出ステップの一例である。
ステップS15では、制御部11は、表示画面13Aに対するユーザーの前記入力操作に応じた入力処理を実行する。例えば、制御部11は、仮想操作領域R2において表示画面13Aに表示されたオブジェクト画像に対するユーザーのタッチ操作を検出した場合に、タッチ位置に対応する表示画面13A上の位置を検出してタッチ入力を受け付ける。ステップS15は、本発明の入力ステップの一例である。
ステップS16において、制御部11は、表示装置1に対する各種の操作が終了したか否かを判定する。前記操作には、ユーザーによる所定のジェスチャー操作及び入力操作などが含まれる。前記操作が終了した場合(S16:Yes)、制御部11は前記表示制御処理を終了する。前記操作が終了しない場合(S16:No)、制御部11はステップS11に戻り上述の処理を繰り返す。
以上説明したように、本実施形態に係る表示装置1は、表示画面13Aに対してユーザーの非接触による入力操作を受け付ける表示装置である。また、表示装置1は、ユーザーの所定の第1ジェスチャー操作を検出した場合に、前記第1ジェスチャー操作に応じた領域を表示画面13Aに対するユーザーの前記入力操作を受け付ける仮想操作領域R2として設定する。そして、表示装置1は、仮想操作領域R2においてユーザーの前記入力操作を検出すると、表示画面13Aに対するユーザーの前記入力操作に応じた入力処理を実行する。
この構成によれば、ユーザーの所望の位置に所望の大きさの仮想操作領域R2を設定することができる。また、ユーザーは、表示画面13Aに対して斜め方向に仮想操作領域R2を設定したり、設定された仮想操作領域R2の位置、大きさを変更したりすることもできる。よって、ユーザーの入力操作の操作性を向上させることが可能となる。
なお、本発明の表示装置は、各請求項に記載された発明の範囲において、以上に示された各実施形態を自由に組み合わせること、或いは各実施形態を適宜、変形又は一部を省略することによって構成されることも可能である。
1 :表示装置
11 :制御部
12 :記憶部
13 :表示パネル
13A :表示画面
14 :操作部
15 :モーションセンサ
111 :ジェスチャー操作検出部
112 :操作領域設定部
113 :操作領域調整部
114 :入力操作検出部
115 :入力処理部
L1 :所定距離
LH :左手
RH :右手
P1 :座標
P2 :座標
R1 :操作領域
R2 :仮想操作領域

Claims (8)

  1. 表示画面に対してユーザーの非接触による入力操作を受け付ける表示装置であって、
    前記ユーザーの所定のジェスチャー操作を検出するジェスチャー操作検出部と、
    前記ジェスチャー操作検出部が前記ユーザーの第1ジェスチャー操作を検出した場合に、前記第1ジェスチャー操作に応じた領域を前記表示画面に対する前記ユーザーの前記入力操作を受け付ける仮想操作領域として設定する操作領域設定部と、
    前記ユーザーの前記入力操作を検出する入力操作検出部と、
    前記入力操作検出部が前記操作領域設定部により設定された前記仮想操作領域において前記ユーザーの前記入力操作を検出した場合に、前記表示画面に対する前記ユーザーの前記入力操作に応じた入力処理を実行する入力処理部と、
    を備え
    前記操作領域設定部は、前記表示画面の一部の領域に対応する前記仮想操作領域を設定し、前記表示画面の一部の領域を識別可能な第1オブジェクト画像を前記表示画面に表示させる表示装置。
  2. 前記操作領域設定部は、前記第1ジェスチャー操作に対応する、前記表示画面から所定距離だけ離れた位置に、前記仮想操作領域を設定する、
    請求項1に記載の表示装置。
  3. 前記第1ジェスチャー操作は、前記ユーザーの左手を翳す操作と右手を翳す操作とを含み、
    前記操作領域設定部は、前記左手の位置と前記右手の位置とを結ぶ線を対角線とする矩形の前記仮想操作領域を設定する、
    請求項1又は請求項2に記載の表示装置。
  4. 前記操作領域設定部により設定される前記仮想操作領域を調整する操作領域調整部をさらに備え、
    前記操作領域調整部は、前記仮想操作領域が設定された後に前記ジェスチャー操作検出部が前記ユーザーの第2ジェスチャー操作を検出した場合に、前記第2ジェスチャー操作に基づいて前記仮想操作領域の大きさ及び位置の少なくともいずれかを変更する、
    請求項1から請求項のいずれか1項に記載の表示装置。
  5. 前記操作領域調整部は、前記仮想操作領域が設定された後に前記ジェスチャー操作検出部が前記第2ジェスチャー操作を検出した場合に、前記仮想操作領域を示す第2オブジェクト画像を前記第2ジェスチャー操作に応じて前記表示画面に表示させる、
    請求項に記載の表示装置。
  6. 前記入力処理部は、前記入力操作検出部が前記操作領域設定部により設定された前記仮想操作領域において前記ユーザーの第3ジェスチャー操作を検出した場合に、当該第3ジェスチャー操作を前記入力操作であると判定して、前記第3ジェスチャー操作に応じた入力処理を実行する、
    請求項1から請求項のいずれか1項に記載の表示装置。
  7. 表示画面に対してユーザーの非接触による入力操作を受け付ける表示方法であって、
    一又は複数のプロセッサーが、
    前記ユーザーの所定のジェスチャー操作を検出するジェスチャー操作検出ステップと、
    前記ジェスチャー操作検出ステップにおいて前記ユーザーの第1ジェスチャー操作を検出した場合に、前記第1ジェスチャー操作に応じた領域を前記表示画面に対する前記ユーザーの前記入力操作を受け付ける仮想操作領域として設定する操作領域設定ステップと、
    前記ユーザーの前記入力操作を検出する入力操作検出ステップと、
    前記入力操作検出ステップにおいて、前記操作領域設定ステップにより設定された前記仮想操作領域において前記ユーザーの前記入力操作を検出した場合に、前記表示画面に対する前記ユーザーの前記入力操作に応じた入力処理を実行する入力ステップと、
    を実行し、
    前記操作領域設定ステップにおいて、前記表示画面の一部の領域に対応する前記仮想操作領域を設定し、前記表示画面の一部の領域を識別可能な第1オブジェクト画像を前記表示画面に表示させる、表示方法。
  8. 表示画面に対してユーザーの非接触による入力操作を受け付ける表示プログラムであって、
    前記ユーザーの所定のジェスチャー操作を検出するジェスチャー操作検出ステップと、
    前記ジェスチャー操作検出ステップにおいて前記ユーザーの第1ジェスチャー操作を検出した場合に、前記第1ジェスチャー操作に応じた領域を前記表示画面に対する前記ユーザーの前記入力操作を受け付ける仮想操作領域として設定する操作領域設定ステップと、
    前記ユーザーの前記入力操作を検出する入力操作検出ステップと、
    前記入力操作検出ステップにおいて、前記操作領域設定ステップにより設定された前記仮想操作領域において前記ユーザーの前記入力操作を検出した場合に、前記表示画面に対する前記ユーザーの前記入力操作に応じた入力処理を実行する入力ステップと、
    を一又は複数のプロセッサーに実行させ
    前記操作領域設定ステップにおいて、前記表示画面の一部の領域に対応する前記仮想操作領域を設定し、前記表示画面の一部の領域を識別可能な第1オブジェクト画像を前記表示画面に表示させる、表示プログラム。
JP2020209252A 2020-12-17 2020-12-17 表示装置、表示方法、及び表示プログラム Active JP7534207B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020209252A JP7534207B2 (ja) 2020-12-17 2020-12-17 表示装置、表示方法、及び表示プログラム
US17/549,773 US20220197396A1 (en) 2020-12-17 2021-12-13 Display device, display method, and recording medium recording display program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020209252A JP7534207B2 (ja) 2020-12-17 2020-12-17 表示装置、表示方法、及び表示プログラム

Publications (2)

Publication Number Publication Date
JP2022096251A JP2022096251A (ja) 2022-06-29
JP7534207B2 true JP7534207B2 (ja) 2024-08-14

Family

ID=82023058

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020209252A Active JP7534207B2 (ja) 2020-12-17 2020-12-17 表示装置、表示方法、及び表示プログラム

Country Status (2)

Country Link
US (1) US20220197396A1 (ja)
JP (1) JP7534207B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022096252A (ja) * 2020-12-17 2022-06-29 シャープ株式会社 表示装置、表示方法、及び表示プログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016103769A1 (ja) 2014-12-26 2016-06-30 株式会社ネクステッジテクノロジー 操作入力装置、操作入力方法及びプログラム
JP2017097716A (ja) 2015-11-26 2017-06-01 富士通株式会社 入力装置、入力方法、及びプログラム
WO2018142524A1 (ja) 2017-02-02 2018-08-09 マクセル株式会社 表示装置、及び遠隔操作制御装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9317129B2 (en) * 2014-03-25 2016-04-19 Dell Products, Lp System and method for using a side camera for a free space gesture inputs
JP2022096252A (ja) * 2020-12-17 2022-06-29 シャープ株式会社 表示装置、表示方法、及び表示プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016103769A1 (ja) 2014-12-26 2016-06-30 株式会社ネクステッジテクノロジー 操作入力装置、操作入力方法及びプログラム
JP2017097716A (ja) 2015-11-26 2017-06-01 富士通株式会社 入力装置、入力方法、及びプログラム
WO2018142524A1 (ja) 2017-02-02 2018-08-09 マクセル株式会社 表示装置、及び遠隔操作制御装置

Also Published As

Publication number Publication date
JP2022096251A (ja) 2022-06-29
US20220197396A1 (en) 2022-06-23

Similar Documents

Publication Publication Date Title
JP6159323B2 (ja) 情報処理方法及び情報処理装置
JP5506375B2 (ja) 情報処理装置及びその制御方法
US8370772B2 (en) Touchpad controlling method and touch device using such method
US9632690B2 (en) Method for operating user interface and electronic device thereof
US20120162103A1 (en) Display Control Device and Display Control Method
JP6004716B2 (ja) 情報処理装置およびその制御方法、コンピュータプログラム
US9430089B2 (en) Information processing apparatus and method for controlling the same
KR102205283B1 (ko) 적어도 하나의 어플리케이션을 실행하는 전자 장치 및 그 제어 방법
US20150058762A1 (en) Interface device, interface method, interface program, and computer-readable recording medium storing the program
CN104423836A (zh) 信息处理装置
JP5384706B2 (ja) マルチタッチの操作方法及びそのシステム
TWI354223B (ja)
JP7534207B2 (ja) 表示装置、表示方法、及び表示プログラム
US10126856B2 (en) Information processing apparatus, control method for information processing apparatus, and storage medium
US20220197498A1 (en) Display device, display method, and recording medium recording display program
US11635822B2 (en) Display device, display method, and recording medium having display program recorded therein
US11543918B1 (en) Input apparatus, input method, and recording medium recording input program
US9501210B2 (en) Information processing apparatus
US9417780B2 (en) Information processing apparatus
JP7534206B2 (ja) 表示装置、表示方法、及び表示プログラム
JP2015200975A (ja) 情報処理装置、コンピュータプログラムおよび記録媒体
TWI780663B (zh) 互動式觸控系統的操作判斷方法
JP2023010138A (ja) 入力装置、入力方法、及び入力プログラム
JP2023010137A (ja) 入力装置、入力方法、及び入力プログラム
CA2855055A1 (en) Information input device and information input method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230920

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240325

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240402

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240513

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240730

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240801

R150 Certificate of patent or registration of utility model

Ref document number: 7534207

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150