JP2015035151A - 表示装置 - Google Patents

表示装置 Download PDF

Info

Publication number
JP2015035151A
JP2015035151A JP2013166412A JP2013166412A JP2015035151A JP 2015035151 A JP2015035151 A JP 2015035151A JP 2013166412 A JP2013166412 A JP 2013166412A JP 2013166412 A JP2013166412 A JP 2013166412A JP 2015035151 A JP2015035151 A JP 2015035151A
Authority
JP
Japan
Prior art keywords
operation surface
screen
operator
display unit
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2013166412A
Other languages
English (en)
Inventor
山田 大輔
Daisuke Yamada
大輔 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Funai Electric Co Ltd
Original Assignee
Funai Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Funai Electric Co Ltd filed Critical Funai Electric Co Ltd
Priority to JP2013166412A priority Critical patent/JP2015035151A/ja
Priority to US14/445,188 priority patent/US20150042620A1/en
Publication of JP2015035151A publication Critical patent/JP2015035151A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】リモコンや携帯機器を操作することなく簡便な動作で遠隔操作することが可能な表示装置を提供する。
【解決手段】表示装置1は、表示部8の映像出力方向の空間に置かれた被検出体を検出して被検出体の空間情報を導出する検出部2と、表示部8の映像出力方向の空間に置かれた操作面設定体を用いて表示部8の画面に対応する仮想的な操作面Mを設定する操作面設定部5と、操作面M内の被検出体である右手HRの人差し指F6の位置を示す検出ポイントDを表示部8の画面上に描画する画像信号を生成する入力画面処理部6と、操作面M内の人差し指F6が操作者側から表示部8側に向かって操作面Mに到達したことを識別して操作面Mに到達した人差し指F6の到達位置に係る検出ポイントDを用いて操作面Mの1点を選択したこととする入力ポイントを決定する入力ポイント決定部7と、を備える。
【選択図】図2

Description

本発明は表示装置に関する。
テレビジョン受信機に代表される表示装置の多くはリモートコントローラ(以下リモコンと称する)を用いて装置から離れた場所から遠隔操作される。そして、昨今の表示装置にはリモコンに代わる携帯機器を用いて遠隔操作されるものもある。このような従来の表示装置が例えば特許文献1及び2に開示されている。
特許文献1及び2に記載された従来の表示装置はリモコン操作機能を有する携帯電話機によって遠隔操作される。これらの携帯電話機の表示部にはリモコン操作用の画面が表示され、操作者はその携帯電話機の画面を見ながら表示装置の操作を行う。このようにして、携帯電話機を用いた簡単な操作で表示装置、例えばテレビジョン受信機における選局などの制御を行うことができるようにしている。
特開2011−193426号公報 特開2005−150831号公報
しかしながら、上記従来の表示装置は遠隔操作するためのリモコンや携帯機器を見失う場合があり、それらリモコンや携帯機器を探す手間が掛かる虞があることが懸念される。また、表示装置の遠隔操作に携帯機器を用いる場合、携帯機器自体に表示装置の遠隔操作用のアプリケーション等を設定して起動する必要がある。これにより、携帯機器にそのアプリケーションのための記憶容量を確保する必要があり、アプリケーションの起動にも手間が掛かる可能性がある。
本発明は、上記の点に鑑みなされたものであり、リモコンや携帯機器を操作することなく簡便な動作で遠隔操作することが可能な表示装置を提供することを目的とする。
上記の課題を解決するため、本発明の表示装置は、表示部と、前記表示部の画面の法線方向の空間に置かれた被検出体を検出するとともに前記被検出体の空間情報を導出する検出部と、前記表示部の画面の法線方向の空間に置かれた操作面設定体を用いて前記表示部の画面に対応する仮想的な操作面を設定する操作面設定部と、前記操作面内の前記被検出体の位置を示す検出ポイントを前記表示部の前記画面上に描画するための画面データに係る画像信号を生成する入力画面処理部と、前記操作面内の前記被検出体が操作者側から前記表示部側に向かって前記操作面に到達したことを識別して前記操作面に到達した前記被検出体の到達位置に係る前記検出ポイントを用いて前記操作面の1点を選択したこととする入力ポイントを決定する入力ポイント決定部と、を備えることを特徴としている。
この構成によれば、表示装置はその表示部と操作者との間の空間に表示部の画面に対応する仮想的な操作面を設定する。そして、操作者が操作面に対して被検出体、例えば手指などを近づけ操作面に到達させると、表示装置は操作面に到達したその手指の到達位置において操作面の1点を選択したこととする入力ポイントを決定する。すなわち、その入力ポイントに対応する表示部の画面上のポイントが選択される。したがって、操作者はリモコンや携帯機器を操作することなく簡便な動作で遠隔から入力操作を行うことができる。
また、上記構成の表示装置において、前記操作面設定部が、操作者の体の少なくとも一部を前記操作面設定体として用いて前記操作面を設定することを特徴としている。
この構成によれば、表示部の画面に対応する操作面が操作者の体の一部を用いて設定される。したがって、表示装置を遠隔操作するにあたって、操作者はリモコンや携帯機器を操作することなく、さらに他の部材も必要としない。そして、操作者は表示装置の遠隔操作を素早く開始することができる。
また、上記構成の表示装置において、前記表示部の前記画面が矩形をなし、前記操作面設定部が、操作者の手の少なくとも一部を前記表示部の前記画面の少なくとも一辺に対応付けて前記操作面を設定することを特徴としている。
この構成によれば、矩形をなす表示部の画面の一辺が操作者の手の一部に対応するので、操作者は操作面の把握が容易になる。したがって、操作者は操作面を設定するために手を表示部に向かって差し出すことで、簡単に表示装置の遠隔操作を素早く開始することができる。
また、上記構成の表示装置において、前記表示部の前記画面が矩形をなし、前記操作面設定部が、操作者の手のいずれかの一点を前記表示部の前記画面のいずれかの頂点に対応付けて前記操作面を設定することを特徴としている。
この構成によれば、矩形をなす表示部の画面のいずれかの頂点が操作者の手のいずれかの一点に対応するので、操作者は操作面の把握が容易になる。したがって、操作者は操作面を設定するための手を表示部に向かって差し出すことで、簡単に表示装置の遠隔操作を素早く開始することができる。
また、上記構成の表示装置において、前記操作面設定部が、棒状の部材を前記操作面設定体として用いて前記操作面を設定することを特徴としている。
この構成によれば、表示部の画面に対応する操作面が棒状の部材を用いて設定される。したがって、操作者が例えば手や指を用いて操作面を設定できない場合であっても、操作面が容易に設定される。
また、上記構成の表示装置において、前記表示部の前記画面が矩形をなし、前記操作面設定部が、前記棒状の部材の少なくとも一部を前記表示部の前記画面の少なくとも一辺に対応付けて前記操作面を設定することを特徴としている。
この構成によれば、矩形をなす表示部の画面の一辺が棒状の部材の一部に対応するので、操作者は操作面の把握が容易になる。したがって、操作者は操作面を設定するための棒状の部材を表示部との間に配置することで、簡単に表示装置の遠隔操作を開始することができる。
本発明の構成によれば、リモコンや携帯機器を操作することなく簡便な動作で遠隔操作することが可能な表示装置を提供することができる。
本発明の第1実施形態に係る表示装置を示す構成図である。 本発明の第1実施形態に係る表示装置のブロック図である。 本発明の第1実施形態に係る表示装置の入力状態を示す説明図であって、操作者の後方上側から見た説明図である。 本発明の第1実施形態に係る表示装置の入力状態を示す説明図であって、操作者の側方から見た説明図である。 本発明の第1実施形態に係る表示装置の入力処理を示すフローチャートである。 本発明の第2実施形態に係る表示装置の入力状態を示す説明図であって、操作者の後方上側から見た説明図である。 本発明の第2実施形態に係る表示装置の入力状態を示す説明図であって、操作者の側方から見た説明図である。 本発明の第3実施形態に係る表示装置の入力状態を示す説明図であって、操作者の後方上側から見た説明図である。 本発明の第3実施形態に係る表示装置の入力状態を示す説明図であって、操作者の側方から見た説明図である。
以下、本発明の実施形態を図1〜図9に基づき説明する。
<第1実施形態>
最初に、本発明の第1実施形態に係る表示装置について、図1〜図4を用いてその構成を説明する。図1は表示装置を示す構成図、図2は表示装置のブロック図である。図3及び図4は表示装置の入力状態を示す説明図であって、操作者の後方上側から見た説明図及び操作者の側方から見た説明図である。なお、図3の右方が操作者にとっての右方であり、左方が操作者にとっての左方である。図3の紙面に対する奥行方向の手前側が操作者側であり、奥行き方向の奥側が表示部側である。図4の左方が操作者側であり、右方が表示部側である。
表示装置1は、図1及び図2に示すように検出部2、制御部3、記憶部4、操作面設定部5、入力画面処理部6、入力ポイント決定部7及び表示部8を備える。なお、表示装置1は例えばテレビジョン放送局やインターネットなどを通じて提供される放送信号から放送番組を再生する映像受信機であって、上記構成要素のほかに放送番組の再生に係る不図示の構成要素を備えるが、ここではそれらの説明を省略する。そして、表示装置1は表示部8に映し出されるコンテンツに対して操作者が任意に操作することができる入力装置の機能も有する。
検出部2は表示部8の画面の法線方向、すなわち表示装置1の視聴者(操作者)が存在する方向を向くよう表示装置1の本体部に設けられた、例えば光学的または電磁気的または音響的または熱的な検出能力を有するセンサを含む。検出部2は表示部8の画面の法線方向の空間に置かれた被検出体を検出し、その被検出体の空間情報、例えば被検出体の位置や形状、被検出体までの距離を導出する。例えば、検出部2は操作者全体と、操作者の身体の部位や操作者が手に持つ物などを検出するとともにそれらの空間情報を導出する。
制御部3は不図示の演算部やその他の電子部品で構成され、記憶部4等に予め記憶、入力されたプログラム、データに基づき、表示装置1の各構成要素から情報を得るとともにそれら構成要素の動作を制御して一連の被検出体の検出処理、画面処理及び表示処理を実現する。制御部3は操作面設定部5、入力画面処理部6及び入力ポイント決定部7を備える。なおここでは、制御部3が操作面設定部5、入力画面処理部6及び入力ポイント決定部7を備える構成としているが、制御部3とは別にして操作面設定部5、入力画面処理部6及び入力ポイント決定部7を備える構成であっても良い。
操作面設定部5は表示部8と操作者との間に、図3及び図4に示すように表示部8の画面に対応する仮想的な操作面Mを設定する。操作面Mは、例えば表示部8の画面に相似する矩形をなす。操作面設定部5は表示部8と操作者との間の空間に置かれた例えば操作者の体の一部である左手HLを操作面設定体として用いて操作面Mを設定する。操作者はこの操作面Mに対して右手HRの人差し指F6などを用いて表示部8に映し出されるコンテンツに係る入力操作を行うことができる。
操作面設定体として左手HLを用いることに係る情報は操作面情報として記憶部4に予め記憶される。この場合、操作者は、図3及び図4に示すように左手HLの手のひらを表示部8に向け、親指F1を除く4本の指F2〜F5を上方に伸ばし、親指F1を操作者の右方に伸ばす必要がある。これにより、操作面設定部5は記憶部4に記憶された左手HLを用いた操作面情報と、検出部2が検出した左手HLの空間情報とに基づき、図3に示すように広げた左手HLにより規定される矩形の仮想的な操作面Mを設定する。
操作面設定部5が操作面Mを設定するにあたって、記憶部4は操作面情報に加えて操作者情報と入力画面情報とを記憶する。操作者情報としては例えば操作者の利き手や手の形状、大きさなどの情報が含まれる。入力画面情報としては例えば表示部8の形状、大きさなどの情報が含まれる。操作面設定部5は、例えば予め記憶された表示部8の画面の上下方向の長さ8y及び横方向の長さ8xと、予め記憶された操作者の左手HLの親指F1の付け根から人差し指F2の先端までの長さMyとの比率から、操作面Mの横方向の長さMxを導出して操作面Mの大きさを設定する。操作面Mの左下の頂点Maが操作者の左手HLの親指F1の人差し指F2との間の付け根の箇所に一致するよう操作面Mが設定される。操作面Mの左下の頂点Maは表示部8の画面の左下の頂点8aに対応する。
なお、記憶部4が予め記憶する情報として操作者情報は必須ではない。操作者の手の大きさ(例えば左手HLの親指F1の付け根から人差し指F2の先端までの長さMy)は入力の開始時に手のひらを表示部8に向ける際に測定することができる。操作面Mの大きさを設定する精度を向上させるために、上記のように操作者の手の大きさを記憶部4に予め記憶させておくことが好ましい。
入力画面処理部6は操作面設定部5が設定した操作面Mに係る情報と検出部2が検出した被検出体の空間情報とに基づき、操作面M内における被検出体の位置を示す検出ポイントDを特定する。ここで、入力画面処理部6は操作面M内であって、操作面Mから操作者側に所定距離離れて操作面Mを投影した軌跡から得られる略直方体形状をなす空間内を、被検出体の検出領域Sとして設定する。そして、入力画面処理部6は検出領域S内で検出される複数の被検出体のうち、例えば最も表示部8に近いもの1点を被検出体として識別する。
図3及び図4に示すように左手HLを用いて操作面Mを設定する場合、操作者は通常右手HRを用いて表示部8に映し出されたコンテンツに対して入力操作を行うことになる。これにより、例えばタップ入力やドラッグ入力などを行うときのように入力ポイントが1点である場合に、操作者が操作面Mに対して伸ばした、検出領域S内で検出される右手HRの人差し指F6の指先の位置を、入力画面処理部6は検出ポイントDとして特定する。そして、入力画面処理部6は操作面M内の被検出体の位置を示す検出ポイントDを表示部8の画面上に描画するための画面データに係る画像信号を生成する。
入力ポイント決定部7は操作面M内の被検出体が操作者側から表示部8側に向かって操作面Mに到達したことを識別する。さらに、入力ポイント決定部7は操作面Mに到達した被検出体の到達位置に係る検出ポイントDを用いて操作面Mの1点を選択したこととする入力ポイントを決定する。なお、ここで述べる「入力ポイントの決定」とは、例えばタップ入力やドラッグ入力において指などがタッチパネル上の1点に接触した状態、或いはポインティングデバイスとしてのマウスでクリックした状態と同等であることを意味する。
また、操作者情報として例えば操作者の入力上の癖などの情報を記憶部4に記憶させても良い。例えば、タップ、ドラッグなどといった入力方法を予め操作者に操作面Mを用いて実施させ、その操作に係る癖や傾向を記憶した情報を用いて入力ポイントの位置条件を操作者情報として設定して使用しても良い。
表示部8は映像の表示に例えば矩形の略板状をなす液晶パネルを用いて、テレビジョン放送局などから提供されるコンテンツを画面に表示する。また、表示部8は入力画面処理部6から受け取った入力画面に係る画像信号に基づいて画面データを画面に表示する。すなわち、表示部8は図3に示すように操作者の右手HRの人差し指F6の指先である検出ポイントDに対応するポインタPを画面に表示する。なお、例えば操作者が右手HRの人差し指F6を検出領域S内で上下左右に移動させると、入力画面処理部6による処理に基づき表示部8の画面上のポインタPもそれに連動して上下左右に移動する。
続いて、表示装置1における入力処理について、図3及び図4を用いて図5に示すフローに沿って説明する。図5は表示装置1の入力処理を示すフローチャートである。
ここでは、例えば表示装置1を用いて表示部8の画面上の1点を選択する入力を例に掲げて説明する。
表示装置1において表示部8の画面上の1点を選択する入力を行う場合、操作者は最初に入力操作の開始を告げる入力開始動作を表示装置1に対して示す。入力開始動作は、例えば図3及び図4に示すようにその左手HLを広げ、手のひらを表示部8に向けることなどで良く、予め記憶部4などに記憶される。
入力開始動作を検出すると(図5のスタート)、制御部3は検出部2に操作者と操作面設定体、すなわち操作者の左手HLを検出させる(ステップ#101)。続いて、操作面設定部5が記憶部4に記憶された左手HLを用いた操作面情報と、検出部2が検出した左手HLの空間情報とに基づき、図3に示すように広げた左手HLにより規定される矩形の仮想的な操作面Mを設定する(ステップ#102)。
次に、入力画面処理部6からの情報に基づき、制御部3は検出領域Sにおいて被検出体を検出できたか否かを判別する(ステップ#103)。被検出体を検出できなかった場合(ステップ#103のNo)、制御部3は再び被検出体を検出できたか否かを判別する。
検出領域Sにおいて被検出体、すなわち右手HRの人差し指F6の指先を検出できた場合(ステップ#103のYes)、入力画面処理部6は操作面Mに係る情報と右手HRの人差し指F6の指先の空間情報とに基づき、操作面M内における右手HRの人差し指F6の指先の位置を示す検出ポイントDを特定する(ステップ#104)。続いて、入力画面処理部6が検出ポイントDを表示部8の画面上に描画するための画像信号を出力し、表示部8がその画像信号に基づいて図3に示すように検出ポイントDに対応するポインタPを画面に表示する(ステップ#105)。
次に、入力ポイント決定部7からの情報に基づき、制御部3は操作面M内の右手HRの人差し指F6が操作者側から表示部8側に向かって操作面Mに到達したか否かを判別する(ステップ#106)。人差し指F6の操作面Mへの到達を検出できなかった場合(ステップ#106のNo)、制御部3は再び到達を検出できたか否かを判別する。
右手HRの人差し指F6の操作面Mへの到達を検出できた場合(ステップ#106のYes)、入力ポイント決定部7は操作面Mに到達した右手HRの人差し指F6の到達位置に係る検出ポイントDを用いて操作面Mの1点を選択したこととする入力ポイントを決定する(ステップ#107)。このとき、入力ポイントに対応するポインタPの箇所に、コンテンツが例えばキーやボタン、画像、ファイル、データなどの選択対象を提供している場合、その選択対象が表示装置1における入力処理に基づき選択される。
次に、制御部3は入力終了動作が検出できたか否かを判別する(ステップ#108)。入力終了動作は、例えば図3及び図4に示すように左手HLを広げて手のひらを表示部8に向けることを止めることなどで良く、予め記憶部4などに記憶される。入力終了動作が検出できなかった場合(ステップ#108のNo)、ステップ#103に戻り、制御部3は再び検出領域Sにおいて被検出体を検出できたか否かを判別する。
入力終了動作が検出できた場合(ステップ#108のYes)、制御部3は表示装置1における入力処理を終了する(図5のエンド)。なお、図5を用いて説明した入力処理において、ステップ#107で入力ポイントが決定するまでの間に例えば操作者が操作面設定体である左手HLを表示部8の前方から退避させるなどした場合、この処理は中途終了する。
上記のように、本発明の実施形態に係る表示装置1は、表示部8と、表示部8の画面の法線方向の空間に置かれた被検出体を検出するとともに被検出体の空間情報を導出する検出部2と、表示部8の画面の法線方向の空間に置かれた操作面設定体を用いて表示部8の画面に対応する仮想的な操作面Mを設定する操作面設定部5と、操作面M内の被検出体である右手HRの人差し指F6の位置を示す検出ポイントDを表示部8の画面上に描画するための画面データに係る画像信号を生成する入力画面処理部6と、操作面M内の右手HRの人差し指F6が操作者側から表示部8側に向かって操作面Mに到達したことを識別して操作面Mに到達した右手HRの人差し指F6の到達位置に係る検出ポイントDを用いて操作面Mの1点を選択したこととする入力ポイントを決定する入力ポイント決定部7と、を備える。
この構成によれば、表示装置1は表示部8と操作者との間の空間に表示部8の画面に対応する仮想的な操作面Mを設定する。そして、操作者が操作面Mに対して手指を近づけ操作面Mに到達させると、表示装置1は操作面Mに到達したその手指の到達位置において操作面Mの1点を選択したこととする入力ポイントを決定する。すなわち、その入力ポイントに対応する表示部8の画面上のポイント(ポインタPの箇所)が選択される。したがって、操作者はリモコンや携帯機器を操作することなく簡便な動作で遠隔から入力操作を行うことができる。
また、表示装置1は、操作面設定部5が操作者の左手HLを操作面設定体として用いて操作面Mを設定する。この構成によれば、表示部8の画面に対応する操作面Mが操作者の左手HLを用いて設定される。したがって、表示装置1を遠隔操作するにあたって、操作者はリモコンや携帯機器を操作することなく、さらに他の部材も必要としない。そして、操作者は表示装置1の遠隔操作を素早く開始することができる。
さらに、表示装置1は、表示部8の画面が矩形をなし、操作面設定部5が操作者の左手HLの手の親指F1の付け根から人差し指F2の先端まで部分を表示部8の画面の上下方向に延びる一辺に対応付けて操作面Mを設定する。この構成によれば、操作者は操作面Mを容易に把握することが可能である。したがって、操作者は操作面Mを設定するために左手HLを広げ表示部8に向かって差し出すことで、簡単に表示装置1の遠隔操作を素早く開始することができる。
<第2実施形態>
次に、本発明の第2実施形態に係る表示装置について、図6及び図7を用いてその構成を説明する。図6及び図7は表示装置の入力状態を示す説明図であって、操作者の後方上側から見た説明図及び操作者の側方から見た説明図である。なお、この実施形態の基本的な構成は先に説明した第1実施形態と同じであるので、第1実施形態と共通する構成要素には前と同じ符号を付し、図面の記載及びその説明を省略するものとする。また、図6の右方が操作者にとっての右方であり、左方が操作者にとっての左方である。図6の紙面に対する奥行方向の手前側が操作者側であり、奥行き方向の奥側が表示部側である。図7の左方が操作者側であり、右方が表示部側である。
第2実施形態では、操作面設定部5が図6及び図7に示すように操作者の体の一部である例えば握り拳状にした左手HLを操作面設定体として用いて操作面Mを設定する。操作面設定体として握り拳状にした左手HLを用いることに係る情報は操作面情報として記憶部4に予め記憶される。これにより、操作面設定部5は記憶部4に記憶された握り拳状にした左手HLを用いた操作面情報と、検出部2が検出した左手HLの空間情報とに基づき、図6に示すように握り拳状にした左手HLにより規定される矩形の仮想的な操作面Mを設定する。
なお、操作面Mの左下の頂点Maが操作者の握り拳状にした左手HLの、操作面情報として予め記憶部4に記憶された所定の一点に一致するよう操作面Mが設定される。操作面Mの左下の頂点Maは表示部8の画面の左下の頂点8aに対応する。さらに、操作面Mの大きさについても、記憶部4に記憶された操作面情報に基づき操作面Mの横方向の長さMx、上下方向の長さMyが設定される。
上記のように、表示装置1は、表示部8の画面が矩形をなし、操作面設定部5が操作者の例えば握り拳状にした左手HLのいずれかの一点を表示部8の画面の左下の頂点8aに対応付けて操作面Mを設定する。この構成によれば、操作者は操作面Mを容易に把握することが可能になる。したがって、操作者は操作面Mを設定するための手を握り拳状にして表示部8に向かって差し出すことで、簡単に表示装置1の遠隔操作を素早く開始することができる。
この操作面Mの設定方法は、表示部8の画面の大きさが元々さほど大きくない場合に、または操作者が表示部8から遠く離れ操作者の視野に占める表示部8の画面の大きさがさほど大きくない場合に有効である。また、操作者が左手HLに何か物を持っていて離すことができない場合などにも有効である。
<第3実施形態>
次に、本発明の第3実施形態に係る表示装置について、図8及び図9を用いてその構成を説明する。図8及び図9は表示装置の入力状態を示す説明図であって、操作者の後方上側から見た説明図及び操作者の側方から見た説明図である。なお、この実施形態の基本的な構成は先に説明した第1実施形態と同じであるので、第1実施形態と共通する構成要素には前と同じ符号を付し、図面の記載及びその説明を省略するものとする。また、図8の右方が操作者にとっての右方であり、左方が操作者にとっての左方である。図8の紙面に対する奥行方向の手前側が操作者側であり、奥行き方向の奥側が表示部側である。図9の左方が操作者側であり、右方が表示部側である。
第3実施形態では、操作面設定部5が図8及び図9に示すように床面上や机上に、表示部8の画面に対して略平行をなすように置かれた棒状部材Bを操作面設定体として用いて操作面Mを設定する。操作面設定体として棒状部材Bを用いることに係る情報は操作面情報として記憶部4に予め記憶される。これにより、操作面設定部5は記憶部4に記憶された棒状部材Bを用いた操作面情報と、検出部2が検出した棒状部材Bの空間情報とに基づき、図8に示すように棒状部材Bにより規定される矩形の仮想的な操作面Mを設定する。
なお、操作面Mの左下の頂点Maが棒状部材Bの操作者側から見た左端部に一致するよう操作面Mが設定される。操作面Mの左下の頂点Maは表示部8の画面の左下の頂点8aに対応する。さらに、操作面Mの大きさについては、記憶部4に記憶された操作面情報に基づき、表示部8の画面の下辺、すなわち操作面Mの下辺が表示部8の画面に対して略平行に延びる棒状部材Bの全体に対応するよう操作面Mが設定される。操作面Mの上下方向の長さMyは、表示部8の画面情報に基づき横方向の長さMx(棒状部材B全体の長さ)との比率から設定される。
上記のように、操作面設定部5が棒状部材Bを操作面設定体として用いて操作面Mを設定するので、操作者が例えば手や指を用いて操作面Mを設定できない場合であっても、操作面Mを容易に設定することができる。
また、表示装置1は、表示部8の画面が矩形をなし、操作面設定部5が棒状部材Bの全体を表示部8の画面の下辺に対応付けて操作面Mを設定する。この構成によれば、操作者は操作面Mを容易に把握することが可能になる。したがって、操作者は操作面Mを設定するための棒状部材Bを表示部8との間に配置することで、簡単に表示装置1の遠隔操作を開始することができる。
この操作面Mの設定方法は、操作者がけがや病気で手を使うことができない場合であっても表示装置1を用いた入力操作を行うことができ、有効である。
以上、本発明の実施形態につき説明したが、本発明の範囲はこれに限定されるものではなく、発明の主旨を逸脱しない範囲で種々の変更を加えて実施することができる。
例えば、第1実施形態では、操作面設定体としての左手HLに関して、親指F1を除く4本の指F2〜F5を上方に伸ばし、親指F1を操作者の右方に伸ばすこととしたが、親指F1を除く4本の指F2〜F5を操作者の右方に伸ばし、親指F1を上方に伸ばすことにしても良い。また、第1実施形態において、右手HRを操作面設定体として用いても良い。
また、第2実施形態では、握り拳状にした左手HLを操作面設定体として用いて操作面Mを設定することとしたが、操作面設定体が握り拳に限定されるわけではない。操作者が手を広げることなく、手のいずれかの一点を表示部8の画面のいずれかの頂点に対応付けて操作面Mを設定することができれば、他の形態であっても良い。また、第2実施形態における握り拳状にした左手HLの向きは、図6及び図7に例示した向きに限定されるものではない。また、第2実施形態において、右手HRを操作面設定体として用いても良い。
また、第3実施形態では、操作面設定体として用いた棒状部材Bについて真っ直ぐに延びる最も簡単な構造の部材を一例として説明したが、これに限定されるわけではない。棒状部材Bとしては、例えば鉛筆やボールペン、箸などの部材を用いることができる。また、棒状の部材が、例えばL字形状をなす構造のものであっても良い。
本発明は表示装置において利用可能である。
1 表示装置
2 検出部
3 制御部
4 記憶部
5 操作面設定部
6 入力画面処理部
7 入力ポイント決定部
8 表示部

Claims (6)

  1. 表示部と、
    前記表示部の画面の法線方向の空間に置かれた被検出体を検出するとともに前記被検出体の空間情報を導出する検出部と、
    前記表示部の画面の法線方向の空間に置かれた操作面設定体を用いて前記表示部の画面に対応する仮想的な操作面を設定する操作面設定部と、
    前記操作面内の前記被検出体の位置を示す検出ポイントを前記表示部の前記画面上に描画するための画面データに係る画像信号を生成する入力画面処理部と、
    前記操作面内の前記被検出体が操作者側から前記表示部側に向かって前記操作面に到達したことを識別して前記操作面に到達した前記被検出体の到達位置に係る前記検出ポイントを用いて前記操作面の1点を選択したこととする入力ポイントを決定する入力ポイント決定部と、
    を備えることを特徴とする表示装置。
  2. 前記操作面設定部が、操作者の体の少なくとも一部を前記操作面設定体として用いて前記操作面を設定することを特徴とする請求項1に記載の表示装置。
  3. 前記表示部の前記画面が矩形をなし、
    前記操作面設定部が、操作者の手の少なくとも一部を前記表示部の前記画面の少なくとも一辺に対応付けて前記操作面を設定することを特徴とする請求項2に記載の表示装置。
  4. 前記表示部の前記画面が矩形をなし、
    前記操作面設定部が、操作者の手のいずれかの一点を前記表示部の前記画面のいずれかの頂点に対応付けて前記操作面を設定することを特徴とする請求項2に記載の表示装置。
  5. 前記操作面設定部が、棒状の部材を前記操作面設定体として用いて前記操作面を設定することを特徴とする請求項1に記載の表示装置。
  6. 前記表示部の前記画面が矩形をなし、
    前記操作面設定部が、前記棒状の部材の少なくとも一部を前記表示部の前記画面の少なくとも一辺に対応付けて前記操作面を設定することを特徴とする請求項5に記載の表示装置。
JP2013166412A 2013-08-09 2013-08-09 表示装置 Withdrawn JP2015035151A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013166412A JP2015035151A (ja) 2013-08-09 2013-08-09 表示装置
US14/445,188 US20150042620A1 (en) 2013-08-09 2014-07-29 Display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013166412A JP2015035151A (ja) 2013-08-09 2013-08-09 表示装置

Publications (1)

Publication Number Publication Date
JP2015035151A true JP2015035151A (ja) 2015-02-19

Family

ID=52448207

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013166412A Withdrawn JP2015035151A (ja) 2013-08-09 2013-08-09 表示装置

Country Status (2)

Country Link
US (1) US20150042620A1 (ja)
JP (1) JP2015035151A (ja)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6720949B1 (en) * 1997-08-22 2004-04-13 Timothy R. Pryor Man machine interfaces and applications
US8334841B2 (en) * 2006-03-13 2012-12-18 Navisense Virtual user interface method and system thereof
KR101141087B1 (ko) * 2007-09-14 2012-07-12 인텔렉츄얼 벤처스 홀딩 67 엘엘씨 제스처-기반 사용자 상호작용의 프로세싱
US8166421B2 (en) * 2008-01-14 2012-04-24 Primesense Ltd. Three-dimensional user interface
US20120204133A1 (en) * 2009-01-13 2012-08-09 Primesense Ltd. Gesture-Based User Interface
KR101651568B1 (ko) * 2009-10-27 2016-09-06 삼성전자주식회사 3차원 공간 인터페이스 장치 및 방법
TWI437467B (zh) * 2011-10-11 2014-05-11 Ind Tech Res Inst 顯示控制裝置及顯示控制方法

Also Published As

Publication number Publication date
US20150042620A1 (en) 2015-02-12

Similar Documents

Publication Publication Date Title
US20210096651A1 (en) Vehicle systems and methods for interaction detection
US10585473B2 (en) Visual gestures
US9519350B2 (en) Interface controlling apparatus and method using force
US9477403B2 (en) Drawing on a touchscreen
US20080129686A1 (en) Gesture-based user interface method and apparatus
US20110141145A1 (en) Electronic device and method capable of zooming images
JP2013137613A (ja) 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法
US9274702B2 (en) Drawing device, drawing control method, and drawing control program for drawing graphics in accordance with input through input device that allows for input at multiple points
KR20120126508A (ko) 포인터를 사용하지 않는 가상 터치 장치에서의 터치 인식 방법
US20130038555A1 (en) Information Input Device, Information Input Method, and Information Input Program
CN106527915A (zh) 一种信息处理方法及电子设备
US20130239032A1 (en) Motion based screen control method in a mobile terminal and mobile terminal for the same
JP2015172887A (ja) ジェスチャ認識装置およびジェスチャ認識装置の制御方法
JP6183820B2 (ja) 端末、及び端末制御方法
TWI486815B (zh) 顯示設備及其控制系統和方法
US20140089845A1 (en) Apparatus and method capable of switching displayed pictures
JP2012022458A (ja) 情報処理装置およびその制御方法
TW201246046A (en) Method and system for selecting objects
KR101321274B1 (ko) 두대의 카메라와 광원을 이용한 포인터를 사용하지 않는 가상 터치 장치
US20160170596A1 (en) Image display apparatus, image display method, and image-display program product
CN104951211B (zh) 一种信息处理方法和电子设备
TWI536249B (zh) Hand-held touch device and its single-hand manipulation of the full touch range method
JP2015035151A (ja) 表示装置
US9502076B2 (en) Cue point control apparatus and recording medium that facilitate search of cue point during playback
JP2012203497A (ja) 表示一体型座標入力装置及び仮想キーボード機能の起動方法

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20150602

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160614

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20161206