JP2016212769A - 表示装置、表示装置の制御方法、及び、プログラム - Google Patents

表示装置、表示装置の制御方法、及び、プログラム Download PDF

Info

Publication number
JP2016212769A
JP2016212769A JP2015097943A JP2015097943A JP2016212769A JP 2016212769 A JP2016212769 A JP 2016212769A JP 2015097943 A JP2015097943 A JP 2015097943A JP 2015097943 A JP2015097943 A JP 2015097943A JP 2016212769 A JP2016212769 A JP 2016212769A
Authority
JP
Japan
Prior art keywords
display
unit
control unit
track pad
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015097943A
Other languages
English (en)
Inventor
総志 木村
Fusayuki Kimura
総志 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2015097943A priority Critical patent/JP2016212769A/ja
Priority to US15/149,710 priority patent/US10001857B2/en
Priority to EP16169606.7A priority patent/EP3093751A1/en
Priority to CN201610319968.XA priority patent/CN106168848B/zh
Publication of JP2016212769A publication Critical patent/JP2016212769A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】操作面に対する操作を行うことが可能な表示装置において、操作面の大きさに起因する操作性の制約を緩和し、操作の終了位置を操作者が容易に制御できるようにする。【解決手段】HMD100は、使用者に画像を視認させるとともに外景を透過する画像表示部20を備える。HMD100は、操作を検出するトラックパッド14を有する操作部と、画像表示部20に操作対象の表示オブジェクトを表示する制御部と、を備える。制御部は、トラックパッド14に対する操作に対応して表示オブジェクトの表示位置を変化させる制御を行い、トラックパッド14における操作位置に基づき表示オブジェクトの移動方向を求め、トラックパッド14に対する操作が終了するまで移動方向に表示オブジェクトを移動させる。【選択図】図1

Description

本発明は、表示装置、表示装置の制御方法、及び、プログラムに関する。
従来、コンピューター等を操作する入力デバイスとして、接触操作を検出する操作面を備えたものが知られている(例えば、特許文献1参照)。特許文献1は、マウスを用いて操作することを前提としたコンピューターをタッチパネル端末によって操作する構成を開示する。操作面に対する操作を検出する入力デバイスでは、操作面の大きさにより操作性が制約を受ける。この制約を解消するため、特許文献1記載の構成では、タッチパネルが接触を検出する部位が移動した速度から移動距離を算出し、この移動距離にしたがってコンピューター上でマウスポインターを移動させる。
特開2013−143076号公報
しかしながら、特許文献1記載のように、操作に関する速度からマウスポインター等の操作の指標を移動させる場合、この指標が停止する位置、すなわち操作の終了位置を操作者(ユーザー)が制御することが困難であった。
本発明は上記事情に鑑みてなされたものであり、操作面に対する操作を行うことが可能な表示装置において、操作面の大きさに起因する操作性の制約を緩和し、操作の終了位置を操作者が容易に制御できるようにすることを目的とする。
上記目的を達成するため、本発明は、表示部と、操作を検出する操作面を有する操作部と、前記表示部に操作対象の表示オブジェクトを表示させ、前記操作面に対する操作に対応して前記表示オブジェクトの表示位置を変化させる制御部と、を備え、前記制御部は、前記操作面における操作位置に基づき前記表示オブジェクトの移動方向を求め、前記操作面に対する操作が終了するまで前記移動方向に前記表示オブジェクトを移動させること、を特徴とする。
本発明によれば、操作対象の表示オブジェクトを、操作面における操作位置の移動量よりも大きく移動させることができ、操作面の大きさに起因する操作性の制約を緩和できる。さらに、表示オブジェクトの移動を停止する位置を容易に制御でき、操作性の向上を図ることができる。
また、本発明は、上記表示装置において、前記制御部は、前記表示オブジェクトの移動方向を、前記操作面における操作位置の移動方向に対応する方向にすること、を特徴とする。
本発明によれば、操作者が、操作対象の表示オブジェクトを意図した通りに動かすことができ、操作性の向上を図ることができる。
また、本発明は、上記表示装置において、前記制御部は、前記操作面に対する操作を検出した後、前記表示オブジェクトの移動方向を求める処理を行ってから、前記表示オブジェクトを移動させること、を特徴とする。
本発明によれば、操作対象の表示オブジェクトを適切な方向に移動させることができる。
また、本発明は、上記表示装置において、前記制御部は、前記操作面に対する操作を検出した後、前記表示オブジェクトの移動方向を求める処理を行う間、前記操作面の操作位置に対応する表示位置に前記表示オブジェクトを移動させること、を特徴とする。
本発明によれば、表示オブジェクトの移動方向を求める処理を行う間においても表示オブジェクトを適切に移動させることで、操作者が違和感なく操作を行える。また、短時間または操作位置の移動量が小さい操作に対応して表示オブジェクトを移動させることができる。
また、本発明は、上記表示装置において、前記制御部は、前記操作面における操作に応じて前記表示オブジェクトの移動速度を求め、求めた移動速度で前記移動方向に前記表示オブジェクトを移動させること、を特徴とする。
本発明によれば、操作者が表示オブジェクトの移動速度を制御できるので、より一層の操作性の向上を図ることができる。
また、本発明は、上記表示装置において、前記制御部は、前記表示オブジェクトの移動中における前記操作面の操作位置の変化に応じて、前記表示オブジェクトの移動速度を変化させること、を特徴とする。
本発明によれば、操作者が表示オブジェクトの移動速度を、より細かく制御できる。
また、本発明は、上記表示装置において、前記操作部および前記制御部は、前記操作面に対して操作体が接触した場合に接触操作を検出し、前記操作面から前記操作体が離れて接触が解除された場合に、前記操作の終了を検出すること、を特徴とする。
本発明によれば、操作者による操作の終了を確実に検出できるので、より一層の操作性の向上を図ることができる。
また、本発明は、上記表示装置において、前記操作面において前記操作部が操作を検出する面積またはサイズは、前記表示部が画像を表示する表示領域の面積またはサイズよりも小さいこと、を特徴とする。
本発明によれば、表示領域よりも小さい操作面を利用して、表示オブジェクトを任意に移動させることができ、操作性の向上を図ることができる。また、装置構成の自由度が高まるという利点がある。
また、本発明は、上記表示装置において、前記操作面の形状は、前記表示部が画像を表示する表示領域とは異なる形状であること、を特徴とする。
本発明によれば、表示領域と異なる形状の操作面を利用して、表示オブジェクトを任意に移動させることができ、操作性の向上を図ることができる。また、装置構成の自由度が高まるという利点がある。
また、上記目的を達成するため、本発明の表示装置の制御方法は、表示部と、操作を検出する操作面を有する操作部と、を有する表示装置を制御して、前記操作面に対する操作に対応して、前記表示部に操作対象位置の表示オブジェクトを表示し、前記操作面における操作位置に基づき前記表示オブジェクトの移動方向を求め、前記操作面に対する操作が終了するまで前記移動方向に前記表示オブジェクトを移動させること、を特徴とする。
本発明によれば、操作対象位置の表示オブジェクトを、操作面における操作位置の移動量よりも大きく移動させることができ、操作面の大きさに起因する操作性の制約を緩和できる。さらに、表示オブジェクトの移動を停止する位置を容易に制御でき、操作性の向上を図ることができる。
また、上記目的を達成するため、本発明は、表示部と、操作を検出する操作面を有する操作部と、を有する表示装置を制御するコンピューターが実行可能なプログラムであって、前記コンピューターを、前記操作面に対する操作に対応して、前記表示部に操作対象位置の表示オブジェクトを表示し、前記操作面における操作位置に基づき前記表示オブジェクトの移動方向を求め、前記操作面に対する操作が終了するまで前記移動方向に前記表示オブジェクトを移動させる制御部として機能させるプログラムである。
本発明のプログラムをコンピューターが実行することにより、コンピューターが表示する操作対象位置の表示オブジェクトを、操作面における操作位置の移動量よりも大きく移動させることができ、操作面の大きさに起因する操作性の制約を緩和できる。さらに、表示オブジェクトの移動を停止する位置を容易に制御でき、操作性の向上を図ることができる。
第1の実施形態のHMDの外観構成を示す説明図。 第1の実施形態のHMDを構成する各部の機能ブロック図。 トラックパッドの操作に対応するHMDの動作を示す説明図であり、(A)はトラックパッドの操作例を示し、(B)はトラックパッドの操作に対応するポインターPの移動の例を示し、(C)はトラックパッドの操作に対するポインターの移動の別の例を示し、(D)はトラックパッドの操作に対しリング型UIの表示を遷移させる例を示す。 第1の実施形態のHMDの動作を示すフローチャート。 第2の実施形態のHMDの動作を示すフローチャート。 第3の実施形態におけるトラックパッドにおける操作領域の設定状態を示す図。 第3の実施形態のHMDの動作を示すフローチャート。 第4の実施形態のHMDの動作を示すフローチャート。 本発明の実施形態の変形例を示す図。
[第1の実施形態]
以下、図面を参照して本発明の実施形態について説明する。
図1は、本発明を適用した第1の実施形態に係るHMD100の外観構成を示す説明図である。HMD100は、頭部に装着する表示装置であり、ヘッドマウントディスプレイ(Head Mounted Display:頭部装着型表示装置)とも呼ばれる。本実施形態のHMD100は、使用者が、虚像を視認すると同時に外景も直接視認可能な光学透過型の表示装置である。なお、本明細書では、HMD100によって使用者が視認する虚像を便宜的に「表示画像」とも呼ぶ。また、画像データに基づいて生成された画像光を射出することを「画像を表示する」ともいう。
HMD100は、使用者の頭部に装着された状態において使用者に虚像を視認させる画像表示部20(表示部)と、画像表示部20を制御する制御装置10と、を備えている。制御装置10は、使用者がHMD100を操作するためのコントローラーとしても機能する。
画像表示部20は、使用者の頭部に装着される装着体であり、本実施形態では眼鏡形状を有している。画像表示部20は、右保持部21と、右表示駆動部22と、左保持部23と、左表示駆動部24と、右光学像表示部26と、左光学像表示部28と、カメラ61と、マイク63とを備える。右光学像表示部26及び左光学像表示部28は、それぞれ、使用者が画像表示部20を装着した際に使用者の右及び左の眼前に位置するように配置されている。右光学像表示部26の一端と左光学像表示部28の一端とは、使用者が画像表示部20を装着した際の使用者の眉間に対応する位置で、互いに接続される。
右保持部21は、右光学像表示部26の他端である端部ERから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。同様に、左保持部23は、左光学像表示部28の他端である端部ELから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。右保持部21及び左保持部23は、眼鏡のテンプル(つる)のようにして、使用者の頭部に画像表示部20を保持する。
右表示駆動部22と左表示駆動部24とは、使用者が画像表示部20を装着した際の使用者の頭部に対向する側に配置されている。なお、右表示駆動部22及び左表示駆動部24を総称して単に「表示駆動部」とも呼び、右光学像表示部26及び左光学像表示部28を総称して単に「光学像表示部」とも呼ぶ。
表示駆動部22,24は、液晶ディスプレイ241,242(Liquid Crystal Display、以下「LCD241,242」とも呼ぶ)や投写光学系251,252等を含む(図2参照)。表示駆動部22,24の構成の詳細は後述する。光学部材としての光学像表示部26,28は、導光板261,262(図2参照)を備える。導光板261,262は、光透過性の樹脂等によって形成され、表示駆動部22,24から出力された画像光を使用者の眼に導く。本実施形態では、少なくとも、HMD100を装着した使用者が外の景色を視認できる程度の光透過性を有する右光学像表示部26及び左光学像表示部28を用いる場合について説明する。
カメラ61は、右光学像表示部26の他端である端部ERに配置される。カメラ61は、使用者の眼の側とは反対側方向の外部の景色である外景を撮像し、外景画像を取得する。図1に示す本実施形態のカメラ61は、単眼カメラであるが、ステレオカメラであってもよい。
カメラ61の撮影方向すなわち画角は、HMD100の表側方向、換言すれば、HMD100を装着した状態における使用者の視界方向の少なくとも一部の外景を撮影する方向である。また、カメラ61の画角の広さは適宜設定可能であるが、カメラ61の撮像範囲が、使用者が右光学像表示部26、左光学像表示部28を通して視認する外界を含む範囲であることが好ましい。さらに、右光学像表示部26及び左光学像表示部28を通した使用者の視界の全体を撮影できるようにカメラ61の撮像範囲が設定されているとより好ましい。
画像表示部20は、さらに、画像表示部20を制御装置10に接続するための接続部40を有している。接続部40は、制御装置10に接続される本体コード48と、右コード42と、左コード44と、連結部材46とを備える。右コード42と左コード44とは、本体コード48が2本に分岐したコードである。右コード42は、右保持部21の延伸方向の先端部APから右保持部21の筐体内に挿入され、右表示駆動部22に接続されている。同様に、左コード44は、左保持部23の延伸方向の先端部APから左保持部23の筐体内に挿入され、左表示駆動部24に接続される。
連結部材46は、本体コード48と、右コード42及び左コード44との分岐点に設けられ、イヤホンプラグ30を接続するためのジャックを有している。イヤホンプラグ30からは、右イヤホン32及び左イヤホン34が延伸している。イヤホンプラグ30の近傍にはマイク63が設けられている。イヤホンプラグ30からマイク63までは一本のコードにまとめられ、マイク63からコードが分岐して、右イヤホン32と左イヤホン34のそれぞれに繋がっている。
マイク63は、例えば図1に示すように、マイク63の集音部が使用者の視線方向を向くように配置され、音声を集音して、音声信号を音声処理部190に出力する。マイク63は、例えばモノラルマイクであってもステレオマイクであってもよく、指向性を有するマイクであってもよいし、無指向性のマイクであってもよい。
また、右コード42と左コード44とを一本のコードにまとめることも可能である。具体的には、右コード42の内部の導線を、画像表示部20の本体内部を通して左保持部23側に引き込み、左コード44内部の導線とともに樹脂で被覆して、一本のコードにまとめてもよい。
画像表示部20と制御装置10とは、接続部40を介して各種信号の伝送を行なう。本体コード48における連結部材46とは反対側の端部と、制御装置10とのそれぞれには、互いに嵌合するコネクター(図示略)が設けられている。本体コード48のコネクターと制御装置10のコネクターとの嵌合/嵌合解除により、制御装置10と画像表示部20とが接続されたり切り離されたりする。右コード42と、左コード44と、本体コード48とには、例えば、金属ケーブルや光ファイバーを採用できる。
制御装置10は、HMD100を制御するための装置である。制御装置10は、決定キー11、点灯部12、表示切替キー13、輝度切替キー15、方向キー16、メニューキー17、及び電源スイッチ18を含むスイッチ類を備える。また、制御装置10は、使用者が指等の操作体によりタッチ操作するトラックパッド14(操作面)を備える。
決定キー11は、押下操作を検出して、制御装置10で操作された内容を決定する信号を出力する。点灯部12は、HMD100の動作状態を、その発光状態によって通知する。HMD100の動作状態としては、例えば、電源のON/OFF等がある。点灯部12としては、例えば、LED(Light Emitting Diode)が用いられる。表示切替キー13は、押下操作を検出して、例えば、コンテンツ動画の表示モードを3Dと2Dとに切り替える信号を出力する。
トラックパッド14は、トラックパッド14の操作面上での使用者の指の操作を検出して、検出内容に応じた信号を出力する。トラックパッド14としては、静電容量検出式や圧力検出式、光学式といった種々のトラックパッドを採用できる。トラックパッド14が圧力検出式や光学式の場合、トラックパッド14を操作する操作体は、使用者の指、ペン、ペン型の専用の指示器など多種のものを使用できる。トラックパッド14が静電容量検出式の場合、操作体としては、指等の人体の一部、及び、静電容量式スタイラスペン等を使用できる。
輝度切替キー15は、押下操作を検出して、画像表示部20の輝度を増減する信号を出力する。方向キー16は、上下左右方向に対応するキーへの押下操作を検出して、検出内容に応じた信号を出力する。電源スイッチ18は、HMD100の電源投入状態を切り替えるスイッチであり、例えばスライド操作が可能な構成となっている。
図2は、HMD100を構成する各部の機能ブロック図である。
図2に示すように、HMD100は、インターフェイス125を介して外部機器OAに接続される。インターフェイス125は、制御装置10に対して、コンテンツの供給元となる種々の外部機器OAを接続するためのインターフェイスである。インターフェイス125としては、例えば、USBインターフェイス、マイクロUSBインターフェイス、メモリーカード用インターフェイス等の有線接続に対応したインターフェイスを用いることができる。
外部機器OAは、HMD100に画像を供給する画像供給装置として用いられ、例えば、パーソナルコンピューター(PC)や携帯電話端末、ゲーム端末等が用いられる。
HMD100の制御装置10は、制御部140と、操作部111と、入力情報取得部110と、記憶部120と、送信部(Tx)51及び送信部(Tx)52とを有している。
操作部111は、使用者による操作を検出する。操作部111は、図1に示した決定キー11、表示切替キー13、トラックパッド14、輝度切替キー15、方向キー16、メニューキー17及び電源スイッチ18の各操作子を含む。
入力情報取得部110は、操作部111の各操作子の操作を検出し、操作内容を示す操作データを制御部140に出力する。この操作データは、具体的には、操作された操作子を特定するデータと、操作子の操作の種別を示すデータとを含む。例えば、決定キー11、表示切替キー13、輝度切り換えキー15、メニューキー17、または電源スイッチ18が操作された場合、入力情報取得部110は、操作されたキーやスイッチを示すデータと操作「有」を示すデータとを含む操作データを制御部140に出力する。また、例えば方向キー16は4方向に操作可能であるため、入力情報取得部110は、方向キー16の操作を検出すると、方向キー16を示すデータと操作方向を示すデータとを制御部140に出力する。
トラックパッド14に対する操作を検出した場合、入力情報取得部110は、トラックパッド14において接触操作された位置を検出する。入力情報取得部110は、操作位置を示すデータと、操作された操作子がトラックパッド14であることを示すデータとを含む操作データを制御部140に出力する。この操作データは、例えば、操作位置を、トラックパッド14の操作エリアにおける座標として示すデータを含む。
記憶部120は、不揮発性の記憶装置であって、種々のコンピュータープログラムを格納している。また、記憶部120には、HMD100の画像表示部20に表示する画像データが格納されていても良い。例えば、記憶部120は、HMD100の動作に係る設定値等を含む設定データ121、及び、制御部140が画像表示部20に表示させる文字や画像のデータを含むコンテンツデータ123を記憶する。
また、制御部140には、3軸センサー113、GPS115、通信部117及び音声認識部114が接続される。3軸センサー113は3軸の加速度センサーであり、3軸センサー113の検出値を制御部140が取得可能である。GPS115は、アンテナ(図示略)を備え、GPS(Global Positioning System)信号を受信し、制御装置10の現在位置を求める。GPS115は、GPS信号に基づいて求めた現在位置や現在時刻を制御部140に出力する。また、GPS115はGPS信号に含まれる情報に基づいて現在時刻を取得し、制御装置10の制御部140が計時する時刻を修正させる機能を備えていてもよい。
通信部117は、無線LAN(WiFi(登録商標))や、Miracast(登録商標)等の無線通信の規格に準じた無線データ通信を実行する。また、通信部117は、Bluetooth(登録商標)や、Bluetooth Low Energy、RFID、Felica(登録商標)等の近距離無線通信の規格に準じた無線データ通信を実行することも可能である。
外部機器OAが、通信部117に無線接続された場合には、制御部140は、コンテンツデータを通信部117より取得して、画像表示部20に画像を表示するための制御を行う。一方、外部機器OAが、インターフェイス125に有線接続された場合には、制御部140は、コンテンツデータをインターフェイス125より取得して、画像表示部20に画像を表示するための制御を行う。よって、通信部117及びインターフェイス125を、以下総称してデータ取得部DAと呼ぶ。
データ取得部DAは、外部機器OAからコンテンツデータを取得する。データ取得部DAは、HMD100が表示する画像のデータを、外部機器OAから取得する。
音声認識部114は、マイク63により集音され、後述する音声処理部190によりディジタルデータに変換されたディジタル音声データから特徴を抽出してモデル化する。音声認識部114は、音声の特徴を抽出してモデル化することで、複数の人の声を別々に認識して、声ごとに話している人を特定する話者認識や、音声をテキストに変換するテキスト変換を行う。また、音声認識部114は、音声認識の処理において、音声データの言語の種類を識別できる構成であってもよい。
制御部140は、ハードウェアとして、CPU、ROM、RAM(図示略)等を備える。制御部140は、記憶部120に格納されているコンピュータープログラムを読み出して実行することにより、オペレーティングシステム(OS)150、画像処理部160、表示制御部170、操作検出部183、GUI制御部185、及び音声処理部190として機能する。
画像処理部160は、コンテンツを表示するための垂直同期信号VSync、水平同期信号HSync、クロック信号PCLK等、表示する画像の画像データ(図中、Data)を出力する。
画像処理部160の処理によって表示されるコンテンツの画像データは、インターフェイス125や通信部117を介して受信する他、制御部140の処理によって生成される画像データであってもよい。例えば、ゲームのアプリケーションプログラムの実行中に、操作部111の操作に対応して画像データを生成して表示することができる。
なお、画像処理部160は、必要に応じて、画像データに対して、解像度変換処理や、輝度、彩度の調整といった種々の色調補正処理、キーストーン補正処理等の画像処理を実行してもよい。
画像処理部160は、生成されたクロック信号PCLK、垂直同期信号VSync、水平同期信号HSync、記憶部120内のDRAMに格納された画像データDataのそれぞれを、送信部51、52を介して送信する。なお、送信部51を介して送信される画像データDataを「右眼用画像データ」とも呼び、送信部52を介して送信される画像データDataを「左眼用画像データ」とも呼ぶ。送信部51、52は、制御装置10と画像表示部20との間におけるシリアル伝送のためのトランシーバーとして機能する。
表示制御部170は、右表示駆動部22及び左表示駆動部24を制御する制御信号を生成する。具体的には、表示制御部170は、制御信号により、右LCD制御部211による右LCD241の駆動ON/OFF、右バックライト制御部201による右バックライト221の駆動ON/OFFを個別に制御する。また、表示制御部170は、左LCD制御部212による左LCD242の駆動ON/OFF、左バックライト制御部202による左バックライト222の駆動ON/OFFを個別に制御する。
これにより、表示制御部170は、右表示駆動部22及び左表示駆動部24のそれぞれによる画像光の生成および射出を制御する。例えば、表示制御部170は、右表示駆動部22及び左表示駆動部24の両方に画像光を生成させたり、一方のみに画像光を生成させたりする。また、表示制御部170は、右表示駆動部22及び左表示駆動部24の両方共に画像光を生成させないようにすることもできる。
また、表示制御部170は、右LCD制御部211に対する制御信号と、左LCD制御部212に対する制御信号とのそれぞれを、送信部51と送信部52とを介して送信する。また、表示制御部170は、右バックライト制御部201に対する制御信号を右バックライト制御部201に送信し、左バックライト制御部202に対する制御信号を左バックライト制御部202により送信する。
表示制御部170は、画像表示部20によりARコンテンツを表示する。ARコンテンツは、使用者が画像表示部20越しに対象物を見ている状態で、対象物が視認される位置に対応して表示される文字や画像を含む。例えば、画像表示部20を透過して見える外景中の対象物、すなわち実空間に存在する対象物に重なって、或いは対象物を避けるように、ARコンテンツが表示される。表示制御部170は、対象物に対応する位置に画像や文字等を表示するAR表示を行うことで、対象物に関する情報を提供し、或いは、画像表示部20越しに見える対象物の姿の見え方を変える。
ARコンテンツの表示位置は対象物に重なる位置であっても対象物の周囲であってもよい。対象物は物体であればよく、建物の壁面など移動不可能なものであってもよいし、自然物であってもよい。
ARコンテンツは、記憶部120に記憶されるコンテンツデータ123、または、制御部140の処理により生成されるデータに基づき表示される。これらのデータは画像データやテキストデータを含むことができる。
表示制御部170は、使用者が対象物を視認する位置を検出し、検出した位置に対応するようにARコンテンツの表示位置を決定する。使用者が対象物を視認する位置を検出する方法は任意であるが、本実施形態では、表示制御部170がカメラ61の撮像画像データから、使用者の視界に位置する対象物を検出する。撮像画像データを解析して対象物の画像を抽出あるいは検出する処理では、対象物の画像の形状、色、大きさ等に関する特徴量のデータが使用される。これらのデータは、コンテンツデータ123に含めることができる。表示制御部170は、カメラ61の撮像画像データから対象物の画像を検出し、検出した対象物の画像と撮像画像全体との位置関係に基づき、カメラ61の撮像範囲における対象物の位置を特定する。そして、表示制御部170は、カメラ61の撮像範囲と、画像表示部20の表示領域との位置関係に基づき、対象物の位置に対応するARコンテンツの表示位置を決定する。
音声処理部190は、コンテンツに含まれる音声信号を取得し、取得した音声信号を増幅して、連結部材46に接続された右イヤホン32内のスピーカー(図示略)及び左イヤホン34内のスピーカー(図示略)に対して供給する。なお、例えば、Dolby(登録商標)システムを採用した場合、音声信号に対する処理がなされ、右イヤホン32及び左イヤホン34のそれぞれから、例えば周波数等が変えられた異なる音が出力される。
画像表示部20は、インターフェイス25と、右表示駆動部22と、左表示駆動部24と、右光学像表示部26としての右導光板261と、左光学像表示部28としての左導光板262と、カメラ61と、振動センサー65と、9軸センサー66とを備えている。
振動センサー65は、加速度センサーを利用して構成され、画像表示部20の内部に配置される。振動センサー65は、例えば、右保持部21において右光学像表示部26の端部ERの近傍に内蔵される。振動センサー65は、使用者が端部ERを叩く操作(ノック操作)を行った場合に、この操作による振動を検出して、検出結果を制御部140に出力する。この振動センサー65の検出結果により、制御部140は、使用者によるノック操作を検出する。
9軸センサー66は、加速度(3軸)、角速度(3軸)、地磁気(3軸)を検出するモーションセンサーである。9軸センサー66は、画像表示部20に設けられているため、画像表示部20が使用者の頭部に装着されているとき、制御部140は、9軸センサー66の検出値に基づいて使用者の頭部の動きを検出できる。検出された使用者の頭部の動きから画像表示部20の向きがわかるため、制御部140は、使用者の視線方向を推定できる。
インターフェイス25は、右コード42と左コード44とが接続されるコネクターを備える。インターフェイス25は、送信部51から送信されるクロック信号PCLK、垂直同期信号VSync、水平同期信号HSync、画像データDataを、対応する受信部(Rx)53、54に出力する。また、インターフェイス25は、表示制御部170から送信される制御信号を、対応する受信部53、54、右バックライト制御部201又は左バックライト制御部202に出力する。
また、インターフェイス25は、カメラ61、振動センサー65及び9軸センサー66のインターフェイスである。振動センサー65による振動の検出結果や、9軸センサー66による加速度(3軸)、角速度(3軸)、地磁気(3軸)の検出結果は、インターフェイス25を介して制御装置10の制御部140に送られる。
右表示駆動部22は、受信部53と、光源として機能する右バックライト(BL)制御部201及び右バックライト(BL)221と、表示素子として機能する右LCD制御部211及び右LCD241と、右投写光学系251とを備える。右バックライト制御部201と右バックライト221とは、光源として機能する。右LCD制御部211と右LCD241とは、表示素子として機能する。なお、右バックライト制御部201と、右LCD制御部211と、右バックライト221と、右LCD241とを総称して「画像光生成部」とも呼ぶ。
受信部53は、制御装置10と画像表示部20との間におけるシリアル伝送のためのレシーバーとして機能する。右バックライト制御部201は、入力された制御信号に基づいて、右バックライト221を駆動する。右バックライト221は、例えば、LEDやエレクトロルミネセンス(EL)等の発光体である。右LCD制御部211は、受信部53を介して入力されたクロック信号PCLKと、垂直同期信号VSyncと、水平同期信号HSyncと、右眼用画像データDataとに基づいて、右LCD241を駆動する。右LCD241は、複数の画素をマトリクス状に配置した透過型液晶パネルである。
右投写光学系251は、右LCD241から射出された画像光を並行状態の光束にするコリメートレンズによって構成される。右光学像表示部26としての右導光板261は、右投写光学系251から出力された画像光を、所定の光路に沿って反射させつつ使用者の右眼REに導く。
左表示駆動部24は、右表示駆動部22と同様の構成を有している。左表示駆動部24は、受信部54と、光源として機能する左バックライト(BL)制御部202及び左バックライト(BL)222と、表示素子として機能する左LCD制御部212及び左LCD242と、左投写光学系252と、を備える。左バックライト制御部202と左バックライト222とは、光源として機能する。左LCD制御部212と左LCD242とは、表示素子として機能する。また、左投写光学系252は、左LCD242から射出された画像光を並行状態の光束にするコリメートレンズによって構成される。左光学像表示部28としての左導光板262は、左投写光学系252から出力された画像光を、所定の光路に沿って反射させつつ使用者の左眼LEに導く。
制御部140は、画像表示部20により、ARコンテンツの他、GUI(Graphical User Interface)を表示できる。GUI制御部185は、画像表示部20によるGUIの表示を制御し、GUI操作用の指標(GUI操作の操作位置の指標)であるマーカー、ポインター(いわゆるマウスポインターを含む)、アイコン等の画像や文字を含むGUIオブジェクトを表示する。GUIオブジェクトは本発明の表示オブジェクトに相当する。
GUI制御部185は、操作部111の操作に対応して、GUIオブジェクトの表示状態を更新する。本実施形態において、GUI制御部185は、トラックパッド14で操作された操作位置に対応してポインターを表示する。画像表示部20の表示領域におけるポインターの表示位置と、トラックパッド14における操作位置とは、予め対応付けられている。GUI制御部185は、操作検出部183からトラックパッド14の操作位置の座標が入力されると、入力された操作位置に対応する表示位置に、ポインターを表示し、或いは、表示中のポインターの表示位置を変更する。
操作検出部183は、入力情報取得部110から入力される操作データに基づいて、操作部111の各操作子に対して行われる操作を検出し、操作に対応して制御部140が実行する処理を決定する。
操作検出部183は、操作データを解析して、操作された操作子が決定キー11、表示切替キー13、輝度切り換えキー15、メニューキー17、または電源スイッチ18である場合、これらの操作に対応する処理を選択する。決定キー11の操作に対しては、GUI制御部185の制御により表示されるメニュー画面等に対する決定処理が選択される。表示切替キー13が操作された場合には、表示する画面を切り替える処理が選択される。例えば、操作検出部183は、GUI制御部185の制御により画面を表示する状態と、コンテンツデータ123を表示する状態とを含む複数の表示状態を順次切り替える処理を選択する。輝度切り換えキー15が操作された場合には、画像表示部20における表示輝度を調整する処理が選択される。具体的には、表示制御部170が画像処理部160を制御して、右表示駆動部22及び左表示駆動部24に出力される画像データの輝度を変化させる処理が選択される。或いは、表示制御部170が右バックライト制御部201、左バックライト制御部202の輝度を変更する処理が選択される。
方向キー16が操作された場合、操作検出部183は、方向キー16の操作方向に対応して、GUI制御部185の制御により表示されるメニュー画面等に対する処理等を選択する。電源スイッチ18が操作された場合、操作検出部183は、HMD100の電源をオフにするシャットダウン処理、或いは、HMD100の電源をオンにする起動シーケンスを選択する。
トラックパッド14が操作された場合、操作検出部183は、トラックパッド14の操作位置の座標に対応して、GUI制御部185が表示処理を行う座標を求める。
本実施形態では、GUI制御部185が、トラックパッド14の操作位置に対応してポインターを表示し、ポインターの表示位置を変更する。従って、制御装置10を操作する使用者(ユーザー、操作者)が、トラックパッド14に接触する操作(タッチ操作)を行うと、画像表示部20に表示されるポインターが移動する。
図3は、トラックパッド14の操作に対応するHMD100の動作を示す説明図であり、(A)はトラックパッド14の操作例を示し、(B)はトラックパッド14の操作に対応するポインターPの移動の例を示す。図3(C)はトラックパッド14の操作に対するポインターPの移動の別の例を示し、(D)はトラックパッド14の操作に対しリング型UI(User Interface)の表示を遷移させる例を示す。
トラックパッド14に対する操作には、例えば図3(A)に示すように、トラックパッド14に指等を接触させたまま移動させる動きがある。図3(A)には、使用者の手Hにより、操作位置A1から操作位置A2まで操作が行われた例を示す。図中に符号X、Yで示すように、本実施形態では、トラックパッド14の左上隅を基準位置(例えば、原点)とするX−Y直交座標が設定され、トラックパッド14の操作位置がX座標、Y座標で示される。
トラックパッド14を操作する場合の操作体(例えば、手H)の動きを、ジェスチャーと呼ぶ。ジェスチャーには、トラックパッド14に接触する動き、図3(A)のように操作体が接触したまま移動する動き等がある。本実施形態では、操作体が図3(A)のように移動する動きを、スライドジェスチャーと呼ぶ。
トラックパッド14が、複数の位置に対する同時操作を検出可能な、マルチタッチ対応型の場合、複数の操作体がトラックパッド14に接触し、これら複数の操作体の接触位置が移動するジェスチャーを行うことができる。
GUI制御部185は、操作データに含まれる操作位置の座標に対応する位置に、図3(B)に示すようにポインターPを表示する。図3(B)には、画像表示部20を装着する使用者の視野VRを示し、右表示駆動部22、左表示駆動部24が画像を表示可能な表示可能領域を符号Dで示す。なお、本実施形態では画像表示部20の右表示駆動部22、及び左表示駆動部24のいずれにも同じ表示を行うため、図3(B)では右表示駆動部22と左表示駆動部24とを区別しない。
GUI制御部185が表示制御部170及び画像処理部160を制御することにより、表示可能領域Dには、ポインターPが表示される。ポインターPは、GUIの操作用に表示され、表示領域における操作対象位置を示す指標であり、表示オブジェクトに対応する。ポインターPは、トラックパッド14の操作位置に対応する位置に表示され、移動される。図3(A)に示すように、操作位置A1から操作位置A2まで手Hによる操作が行われた場合、GUI制御部185は、操作位置A1に対応する表示位置B1から表示位置B2にポインターPを移動させる。
トラックパッド14における操作位置の座標と、表示可能領域Dにおける表示位置の座標とは予め対応付けられる。GUI制御部185はトラックパッド14の操作位置の座標を操作検出部183から取得し、取得した座標に対応する表示可能領域D上の座標を算出する。GUI制御部185は、表示可能領域D上の座標に対応する右LCD241及び左LCD242における表示位置を求め、この表示位置にポインターPの画像を表示させる。これにより、操作に対応してポインターPの表示位置が移動する。
図1を参照して説明したように、制御装置10は使用者が携帯する装置であり、トラックパッド14を大型化することは容易でないため、使用者が視野VRにおいて視認する表示可能領域Dの大きさに比べ、トラックパッド14は小さい。
そこで、本実施形態では、操作検出部183の処理により、トラックパッド14における操作位置と、表示可能領域Dの表示位置との対応を変化させる。
入力操作に対する通常処理において、操作検出部183は、トラックパッド14において実際に検出される操作位置の座標を、GUI制御部185に渡す。操作検出部183は、スライドジェスチャーに対応して、通常処理とは異なる入力処理を行うことができる。この入力処理で、操作検出部183は、入力情報取得部110から入力される操作データに含まれる操作位置の座標ではなく、操作検出部183が生成する操作位置の座標を、GUI制御部185に渡す。従って、GUI制御部185は、通常処理でも、通常処理とは異なる入力処理でも、操作検出部183から渡される操作位置の座標に基づきポインターPを表示すればよい。
操作検出部183は、入力情報取得部110から入力される操作データを解析して、図3(A)に示すようにスライドジェスチャーを検出した場合、このスライドジェスチャーにおける移動方向に基づき、ポインターPを移動する方向を求める。そして、操作検出部183は、スライドジェスチャーが終了しても操作体がトラックパッド14に接触している間は、スライドジェスチャーが継続しているように操作位置の座標を出力する。つまり、操作体の動きが止まっても、操作体が動いている場合と同様に座標を変化させて出力する。これにより、操作体がトラックパッド14から離れるまでの間、表示可能領域Dにおいて、ポインターPが移動を続ける。
また、操作検出部183は、トラックパッド14の操作がスライドジェスチャーに該当しない操作である場合、操作位置の座標をGUI制御部185に渡す。
これにより、使用者は、スライドジェスチャーを意図して行うことにより、実際の操作体の移動量よりも大きくポインターPを移動させることができる。また、操作体をトラックパッド14から離すことでポインターPを停止させることができ、ポインターPの停止位置を高精度で制御できる。
図4はHMD100の動作を示すフローチャートであり、トラックパッド14の操作に対しポインターPの表示位置を制御する動作を示す。
制御部140は、入力情報取得部110から入力される操作データに基づいてトラックパッド14へのタッチ操作を検出すると(ステップS11)、操作位置の座標を取得する(ステップS12)。制御部140は、操作位置が移動しているか否か、すなわち、スライドジェスチャーに該当するか否かの判定を行う(ステップS13)。例えば、設定された時間内に操作位置の座標が閾値以上の変化をした場合に、スライドジェスチャーと判定することができ、スライドジェスチャーの判定の条件は設定データ121に含めて記憶することができる。
スライドジェスチャーでないと判定した場合(ステップS13;No)、制御部140は、トラックパッド14上の操作位置に対応する表示可能領域Dの表示位置に、ポインターPを移動させ(ステップS14)、本処理を終了する。
トラックパッド14への操作がスライドジェスチャーであると判定した場合(ステップS13;YES)、制御部140は、操作位置が停止するまで待機する(ステップS15)。この待機中、制御部140は、入力情報取得部110からの操作データに基づき操作位置の検出を継続して行う。
操作位置が停止した場合(ステップS15;YES)、制御部140は、スライドジェスチャーに対応するポインターPの移動パラメーターを算出する(ステップS16)。ポインターPの移動パラメーターは、移動方向を示すデータ、及び、移動速度を示すデータを含む。
例えば、制御部140は、ポインターPの移動方向を、ステップS11〜S15で検出したスライドジェスチャーの移動方向を同じ方向に決定し、移動パラメーターを生成する。トラックパッド14に対するスライドジェスチャーの方向は、図3(A)に示すX方向に限定されず、Y方向や斜め方向であってもよく、特に制限されない。ポインターPの移動方向は、スライドジェスチャーの方向に対応していればよく、表示可能領域Dに表示可能であればどの方向でもよい。
また、例えば、制御部140は、ポインターPの移動速度を、ステップS11〜S15で検出したスライドジェスチャーの移動量(操作量)に対応する速度に決定し、移動パラメーターを生成する。より具体的には、スライドジェスチャーの移動量が大きいほど、ポインターPの移動速度が高速になるよう移動速度を決定してもよい。また、ポインターPの移動速度を一定としてもよく、この場合、制御部140は、設定データ121に予め設定されたデフォルトの移動速度を決定する。
制御部140は、右表示駆動部22及び左表示駆動部24によりポインターPを表示させ、ステップS16で算出した移動パラメーターに従って、ポインターPの表示位置を移動する処理を開始する(ステップS17)。制御部140は、トラックパッド14への接触の解除を監視し(ステップS18)、トラックパッド14への接触が解除されるまで、ポインターPの移動を継続する(ステップS18;No)。
トラックパッド14への接触が解除されたことを検出すると(ステップS18;YES)、制御部140は、ポインターPの移動を停止させ(ステップS19)、本処理を終了する。
この図4に示した動作は、ポインターPの移動だけでなく、例えば、リング状のUIに適用できる。
図3(D)には、リング型のUIの例を示す。リング型のUIは、複数の画面、或いは画像や文字等の表示オブジェクトを、リング状に配置し、リングの特定位置にある画面または表示オブジェクトが、大きく表示されるインターフェイスである。図3(D)には画面M1〜M6の6つの画面が表示用の画面として用意され、左右方向への操作に対応して、画面M1〜M6が順に、画像表示部20により拡大表示される。また、画面M1〜M6は、図中右方向にも、左方向にも、順に切り替えて表示できる。
このリング状のUIをGUI制御部185が表示させる場合に、トラックパッド14のスライドジェスチャーに対応して、画面M1〜M6を順に切り替えて表示できる。図3(D)のリング型のUIでは、画面M1〜M6のそれぞれは本発明の表示オブジェクトに相当し、GUI制御部185は、トラックパッド14の操作に対応して、それぞれの画面M1〜M6の表示位置を移動させる。また、図4の動作を適用すれば、トラックパッド14のスライドジェスチャーが検出された場合に、画面M1、M2、M3…が順次切り替えられ、トラックパッド14の接触が解除されるまで画面の切り替えが継続する。そして、使用者が操作体をトラックパッド14から離すと、画面の切り替えが停止する。このように、ポインターPの表示位置の移動に限らず、本発明を適用してトラックパッド14の操作性の向上を図ることができる。また、図3(D)のリング型のUIを採用する場合、GUI制御部185は、画面M1〜M6のうち、特定の位置に表示される画面を操作対象としてもよい。特定の位置とは、例えば表示画面の中央であり、他の画面より大きく、使用者の正面に表示される画面が操作対象となる。この場合、トラックパッド14に対する操作の方向に対応して、操作対象の画面の表示位置が移動し、他の画面の表示位置は捜査対象の画面の表示位置の変化に応じて適宜移動される。
本実施形態の制御部140は、トラックパッド14に対する操作がスライドジェスチャーでないと判定した場合(ステップS13;No)、トラックパッド14上の操作位置に対応する表示可能領域Dの表示位置に、ポインターPを移動させる(ステップS14)。つまり、本実施形態では一例として、入力情報取得部110がトラックパッド14における操作位置の座標を制御部140に出力するよう構成され、トラックパッド14は絶対座標を入力するデバイスとして機能する。HMD100の構成はこれに限定されない。例えば、入力情報取得部110が、トラックパッド14における操作位置の変化を検出値として制御部140に出力し、制御部140が操作位置の変化量を入力として受け付ける構成としてもよい。つまり、トラックパッド14が、マウス等と同様の相対位置を入力する入力デバイスとして機能する構成であってもよい。
以上説明したように、本発明を適用した実施形態のHMD100は、使用者に画像を視認させるとともに外景を透過する画像表示部20を備える。HMD100は、操作を検出するトラックパッド14を有する操作部111と、画像表示部20にポインターP等の操作対象の表示オブジェクトを表示する制御部140と、を備える。制御部140は、トラックパッド14に対する操作に対応して、表示オブジェクトであるポインターPの表示位置を変化させる。制御部140は、トラックパッド14における操作位置に基づきポインターPの移動方向を求め、トラックパッド14に対する操作が終了するまで、求めた移動方向にポインターPを移動させる。別の表現をすれば、制御部140は、操作面であるトラックパッド14に対する操作が終了するまで、表示オブジェクトであるポインターPが慣性を保つように、ポインターPの表示位置を移動させる。このため、ポインターPを、トラックパッド14における操作位置の移動量よりも大きく移動させることができ、トラックパッド14の大きさに起因する操作性の制約を緩和できる。さらに、ポインターPの移動を停止する位置を容易に制御でき、操作性の向上を図ることができる。
また、制御部140は、ポインターPの移動方向を、トラックパッド14における操作位置の移動方向に対応する方向にするので、操作者が、ポインターPを意図した通りに動かすことができ、操作性の向上を図ることができる。
また、制御部140は、トラックパッド14に対するスライドジェスチャーの操作を検出した後、ポインターPの移動方向を求める処理を行ってから、ポインターPを移動させるので、ポインターPを適切な方向に移動させることができる。
また、操作部111および制御部140は、トラックパッド14に対する接触操作を検出し、トラックパッド14への接触が解除された場合に、操作の終了を検出するので、操作者による操作の終了を確実に検出でき、より一層の操作性の向上を図ることができる。
本実施形態で、制御部140は、ステップS11でトラックパッド14に対する操作を検出した後、ステップS16でポインターPの移動方向を求める処理を行う間、トラックパッド14の操作位置に対応する表示位置にポインターPを移動させてもよい。この場合、ポインターPの移動方向を求める処理を行う間においてもポインターPを適切に移動させることで、操作者が違和感なく操作を行える。また、短時間または操作位置の移動量が小さい操作に対応してポインターPを移動させることができる。この場合のポインターPの移動は、トラックパッド14の操作位置に対応する表示可能領域Dの表示位置にポインターPを移動させる制御により実現すればよい。
また、制御部140は、トラックパッド14における操作に応じてポインターPの移動速度を求め、求めた移動速度で移動方向にポインターPを移動させてもよい。この場合、操作者がポインターPの移動速度を制御できるので、より一層の操作性の向上を図ることができる。
また、制御部140は、トラックパッド14における操作位置の移動を検出した後、操作が終了するまでポインターPを移動させるので、トラックパッド14は、例えば画像表示部20が画像を表示する領域に比べて小さくてもよい。トラックパッド14は、制御部140が操作位置の移動の方向を検出可能なサイズがあればよく、言い換えれば、トラックパッド14のサイズよりも大きくポインターPを移動させることができる。従って、HMD100の構成においてトラックパッド14が小さくても、ポインターPを任意に移動させることができ、操作性の向上を図ることができる。また、HMD100の構成の自由度が高まるという利点がある。
[第2の実施形態]
図5は、本発明を適用した第2の実施形態に係るHMD100の動作を示すフローチャートである。
本第2の実施形態において、HMD100の構成は第1の実施形態と同様である。このため、HMD100の構成に関して図示及び説明を省略する。
図5に示す動作のステップS11〜S19は、上記第1の実施形態と同様である。
本第2の実施形態において、HMD100の制御部140は、ポインターPの移動を開始してから、トラックパッド14で逆方向のスライドジェスチャーが行われると、ポインターPの移動速度を変更する。
すなわち、制御部140は、トラックパッド14への接触の解除を監視し(ステップS18)、トラックパッド14への接触が解除されるまで、ポインターPの移動を継続する。トラックパッド14への接触が解除されない場合(ステップS18;No)、制御部140は、トラックパッド14の操作位置が、逆方向に移動したか否かを判定する(ステップS21)。「逆方向」とは、ステップS13で検出した方向、或いは、ポインターPの移動方向に対応する方向に対して逆の方向を指す。また、ステップS21では、トラックパッド14における操作位置が正確に逆方向に移動した場合に限らず、逆方向と見なすことができる範囲の操作位置の移動を、逆方向の移動と判定してもよい。また、ポインターPの移動方向から所定角度以上の方向の違いを有する操作を、逆方向の移動と判定してもよい。また、ステップS21では、トラックパッド14の操作位置の移動量に基づく判定を行ってもよい。例えば、操作位置の移動量が予め設定された閾値より小さい場合に、逆方向の移動と判定しない構成としてもよい。
制御部140は、トラックパッド14の操作位置が逆方向に移動したと判定した場合(ステップS21;YES)、ポインターPの移動速度に関する移動パラメーターを変更し、変更後の移動パラメーターに基づきポインターPを移動させて(ステップS22)、ステップS18に戻る。また、トラックパッド14の操作位置が逆方向に移動したと判定しない場合(ステップS21;No)、ステップS18に戻る。
ステップS22では、例えば、ポインターPの移動速度を段階的に変更可能であり、移動速度を1段階低下させることができる。この場合、操作位置を逆方向に移動させる操作を、制御部140が1回検出する毎に、ポインターPの移動速度が1段階低下するので、ポインターPの移動速度を使用者が容易に制御できる。
このように、制御部140が、ポインターPの移動中におけるトラックパッド14の操作位置の変化に応じて、ポインターPの移動速度を変化させることで、操作者がポインターPの移動速度を、より細かく制御できる。
また、本実施形態において、制御部140は、操作体による操作位置が逆方向に移動したと判定した場合に、表示オブジェクトであるポインターPの移動速度を低速に変化させる例を説明した。この場合、ポインターPの移動速度を変化させた後で、トラックパッド14の操作位置が正方向に移動した場合に、ポインターPの移動速度を復帰させてもよい。また、回数の限定なく、操作位置の正方向の移動を検出する毎にポインターPの移動速度を増速し、操作位置の逆方向の移動を検出する毎にポインターPに移動速度を減速してもよい。また、トラックパッド14において操作体が接触する領域の面積を、入力情報取得部110及び制御部140が検出可能な構成において、接触する面積の変化によりポインターPの移動速度を変化させてもよい。例えば、接触面積が小さく変化した場合はポインターPの移動速度を減速させてもよい。また、接触面積が大きくなった場合はポインターPの移動速度を増速させてもよい。このほか、ポインターPを移動させる速度を、トラックパッド14に対する操作態様に応じて変化させる具体的な態様は任意に変更可能である。
[第3の実施形態]
図6は、本発明を適用した第3の実施形態におけるトラックパッド14における操作領域の設定状態を示す図であり、図7は、HMD100の動作を示すフローチャートである。本第3の実施形態において、HMD100の構成は第1の実施形態と同様である。このため、HMD100の構成に関して図示及び説明を省略する。
図6に示すように、第3の実施形態では、トラックパッド14に複数の操作領域Cが設定される。操作領域Cは、トラックパッド14における座標により指定され、それぞれの操作領域Cと他の領域との境界の座標が、例えば設定データ121に設置される。
操作領域C1は、第1及び第2実施形態で説明したように、トラックパッド14の操作位置が移動しない間もポインターPを移動させる制御の対象となる領域である。これに対し、操作領域C1以外の領域、すなわち操作領域C2は、表示可能領域DにおけるポインターPの表示位置が、トラックパッド14の操作位置に対応するように制御する領域である。
制御部140は、操作領域C1においてスライドジェスチャーが行われた場合に、第1の実施形態で説明した処理を実行する。また、操作領域C2では、スライドジェスチャーが行われても、トラックパッド14の操作位置に対応する位置にポインターPを移動させる、通常処理を実行する。この動作を図7に示す。
図7に示す動作のステップS11〜S19は、上記第1の実施形態と同様である。
本第3の実施形態において、HMD100の制御部140は、トラックパッド14への操作がスライドジェスチャーであると判定した場合(ステップS13;YES)、操作位置の座標を判定する(ステップS31)。ステップS31では、例えば、トラックパッド14の操作位置の座標と設定データ121に設定された座標とを比較して、操作位置が操作領域C1に含まれるか否かを判定する。
制御部140は、ステップS31の判定結果に基づき、通常処理を行うか否かを判定する(ステップS32)。通常処理を行う場合(ステップS32;No)、ステップS14に移行して、トラックパッド14上の操作位置に対応する表示可能領域Dの表示位置に、ポインターPを移動させ(ステップS14)、本処理を終了する。
また、通常処理を行わない場合(ステップS32;No)、制御部140はステップS15に移行する。
第3の実施形態の動作によれば、トラックパッド14の実際の操作位置の移動量より大きくポインターPを移動させる処理を、トラックパッド14における特定の領域に限定して行うことができる。トラックパッド14において、上記処理の対象とする領域は、図6に例示した操作領域C1のような形状、サイズに限定されない。例えば、トラックパッド14を上下または左右に複数に分割して、いずれかの領域を、操作領域C1と同様の領域としてもよい。トラックパッド14の形状が、X方向やY方向に長い形状である場合や、比較的広い面積のトラックパッド14を実装可能な場合に、ポインターPの不要な移動を回避できる点で有用である。
[第4の実施形態]
図8は、本発明を適用した第4の実施形態におけるHMD100の動作を示すフローチャートである。本第4の実施形態において、HMD100の構成は第1の実施形態と同様である。このため、HMD100の構成に関して図示及び説明を省略する。
図8に示す動作のステップS11〜S19は、上記第1の実施形態と同様である。
本第4の実施形態において、HMD100の制御部140は、トラックパッド14におけるスライドジェスチャーのうち、特定の方向に操作位置が移動する操作に対して、第1の実施形態で説明した処理を実行する。また、スライドジェスチャーが行われても、操作位置の移動方向が、設定された方向でない場合は、トラックパッド14の操作位置に対応する位置にポインターPを移動させる、通常処理を実行する。
すなわち、HMD100の制御部140は、トラックパッド14への操作がスライドジェスチャーであると判定した場合(ステップS13;YES)、操作位置の移動方向を判定する(ステップS41)。
制御部140は、ステップS41で判定した移動方向に基づき、通常処理を行うか否かを判定する(ステップS42)。通常処理を行う場合(ステップS42;No)、ステップS14に移行して、トラックパッド14上の操作位置に対応する表示可能領域Dの表示位置に、ポインターPを移動させ(ステップS14)、本処理を終了する。
また、通常処理を行わない場合(ステップS42;No)、制御部140はステップS15に移行する。
第4の実施形態の動作によれば、トラックパッド14の実際の操作位置の移動量より大きくポインターPを移動させる処理を、トラックパッド14における特定の方向に対する操作に限定して行うことができる。例えば、Y方向のスライドジェスチャーを上記処理の対象としてもよく、X方向のスライドジェスチャーに対しては通常処理を行ってもよい。この場合、トラックパッド14がX方向に長い、横長の形状である場合に有用である。つまり、トラックパッド14の形状が、X方向やY方向に長い形状である場合等、操作位置の移動量の確保が難しい方向についてのみ、上記処理を行う構成とすることができる。
ステップS42では、ステップS41で判定した方向が、設定された方向に該当するか否かを判定するが、この判定において、正確に特定の方向に移動した場合に限らず、特定の方向と見なすことができる範囲を設定してもよい。すなわち、上記処理を行う方向の範囲が予め設定され、操作位置の移動方向が、上記範囲に含まれる場合に、ステップS42で否定判定してもよい。
[その他の変形例]
図9は、上記各実施形態の変形例を示す図である。
図9(A)はトラックパッド14の変形例として、円形のトラックパッド14aを示す。トラックパッド14aは、トラックパッド14と同様に、接触操作を検出する操作面として機能する。HMD100がトラックパッド14aを備える場合、入力情報取得部110は、トラックパッド14aにおける操作を、例えば図9(A)に符号X、Yで示す直交座標系における座標として検出する。トラックパッド14aは、X軸方向、及びY軸方向において、操作位置を大きく移動させることができないが、上記第1〜第4実施形態を適用することで、トラックパッド14における操作位置の移動量よりも大きく、ポインターPを動かすことができる。トラックパッド14aは、トラックパッド14と同様に、制御部140が操作位置の移動の方向を検出可能なサイズがあればよいので、図9(A)に示すように、画像表示部20の表示領域とは異なる形状であってもよい。
従って、図9(A)に示す円形のトラックパッド14aや、細長い形状など、様々な形状のトラックパッドを用いて、ポインターPを大きく動かすことができ、高い操作性を実現できる。
図9(B)は、制御装置10の本体に設けたトラックパッド14(図1)に代えて、画像表示部20の側面にトラックパッド14bを配置する変形例を示す。トラックパッド14bは、トラックパッド14と同様に、接触操作を検出する操作面として機能する。
図9(B)の例では、画像表示部20の側面を、使用者が指で擦るような動作で、スライドジェスチャーを実行できる。この場合も、トラックパッド14bの面積を大きくすることは容易でないが、上記第1〜第4実施形態を適用することで、高い操作性を実現できる。
図9(C)は、指輪型のデバイス71の表面に、トラックパッド14と同様に接触操作を検出可能なトラックパッド14cを配置する例を示す。トラックパッド14cは、トラックパッド14と同様に、接触操作を検出する操作面として機能する。
トラックパッド14cはデバイス71の表面の一部または全部に形成され、トラックパッド14cの外観がデバイス71の表面と一体化した構成とすることができる。トラックパッド14cは、デバイス71の表面に対する接触を検出できればよく、接触を検出するための回路等がデバイス71の内部に埋設または収容された構成であってもよい。つまり、デバイス71の表面が、操作を検出するための回路等と一体に構成されていなくてもよく、当該回路の一部を構成していなくてもよい。
デバイス71は、例えば制御装置10の通信部117との間で無線通信を実行し、制御部140が、トラックパッド14cにおける操作位置を検出可能な構成とすることができる。
この場合、上記第1〜第4実施形態を適用することで、小さな指輪型のデバイス71に対する接触操作により、ポインターPを自在に動かすことができる。
図9(D)は、ペン型のデバイス72の側面に、トラックパッド14と同様に接触操作を検出可能なトラックパッド14dを配置する例を示す。トラックパッド14dは、トラックパッド14と同様に、接触操作を検出する操作面として機能する。トラックパッド14dはデバイス72の表面の一部または全部に形成され、トラックパッド14cの外観がデバイス72の表面と一体化した構成とすることができる。トラックパッド14dは、デバイス72の表面に対する接触を検出できればよく、接触を検出するための回路等がデバイス72の内部に埋設または収容された構成であってもよい。つまり、デバイス72の表面が、操作を検出するための回路等と一体に構成されていなくてもよく、当該回路の一部を構成していなくてもよい。
デバイス72は、例えば制御装置10の通信部117との間で無線通信を実行し、制御部140が、トラックパッド14dにおける操作位置を検出可能な構成とすることができる。また、デバイス72は実際に筆記具として使用可能な構成を具備してもよい。このデバイス72を用いた構成に、上記第1〜第4実施形態を適用することで、小さなペン型のデバイス71に対する接触操作により、ポインターPを自在に動かすことができる。
トラックパッド14c、14dに対する操作は、手指等によるタッチ(接触)操作、及び、接触した手指の接触を維持したまま動かす操作等である。制御部140は、トラックパッド14c、14dに対する接触を検出した場合、この接触が維持される間、すなわち接触が解除されるまで、操作が終了していないと判定する。言い換えれば、トラックパッド14c、14dに対する手指の接触が解除されると、操作が終了したと判定する。従って、使用者がトラックパッド14c、14dに手指を接触させて動かす操作を行った場合、この手指を使用者がトラックパッド14c、14dから離すまでの間、表示オブジェクトであるポインターPや画面M1〜M6の表示位置が移動する。
なお、この発明は上記各実施形態の構成に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能である。
例えば、上記実施形態において、画像表示部20に代えて、例えば帽子のように装着する画像表示部等の他の方式の画像表示部を採用してもよく、使用者の左眼に対応して画像を表示する表示部と、使用者の右眼に対応して画像を表示する表示部とを備えていればよい。また、本発明の表示装置は、例えば、自動車や飛行機等の車両に搭載されるヘッドマウントディスプレイとして構成されてもよい。また、例えば、ヘルメット等の身体防護具に内蔵されたヘッドマウントディスプレイとして構成されてもよいし、自動車のフロントガラスに用いられるヘッドアップディスプレイ(Head-up Display;HUD)であってもよい。
さらに、上記実施形態では、画像表示部20と制御装置10とが分離され、接続部40を介して接続された構成を例に挙げて説明したが、制御装置10と画像表示部20とが一体に構成され、使用者の頭部に装着される構成とすることも可能である。
また、例えば、画像表示部20において画像光を生成する構成として、有機EL(有機エレクトロルミネッセンス、Organic Electro-Luminescence)のディスプレイと、有機EL制御部とを備える構成としてもよい。また、画像光を生成する構成として、LCOS(Liquid crystal on silicon, LCoSは登録商標)や、デジタル・マイクロミラー・デバイス等を用いることもできる。また、例えば、レーザー網膜投影型のヘッドマウントディスプレイに対して本発明を適用することも可能である。すなわち、画像生成部が、レーザー光源と、レーザー光源を使用者の眼に導く光学系とを備え、レーザー光を使用者の眼に入射させて網膜上を走査し、網膜に結像させることにより、使用者に画像を視認させる構成を採用してもよい。レーザー網膜投影型のヘッドマウントディスプレイを採用する場合、「画像光生成部における画像光の射出可能領域」とは、使用者の眼に認識される画像領域として定義することができる。
画像光を使用者の眼に導く光学系としては、外部から装置に向けて入射する外光を透過する光学部材を備え、画像光とともに使用者の眼に入射させる構成を採用できる。また、使用者の眼の前方に位置して使用者の視界の一部または全部に重なる光学部材を用いてもよい。さらに、レーザー光等を走査させて画像光とする走査方式の光学系を採用してもよい。また、光学部材の内部で画像光を導光させるものに限らず、使用者の眼に向けて画像光を屈折及び/または反射させて導く機能のみを有するものであってもよい。
また、本発明を、MEMSミラーを用いた走査光学系を採用し、MEMSディスプレイ技術を利用した表示装置に適用することも可能である。すなわち、画像表示素子として、信号光形成部と、信号光形成部が射出する光を走査するMEMSミラーを有する走査光学系と、走査光学系により走査される光によって虚像が形成される光学部材とを備えてもよい。この構成では、信号光形成部が射出した光がMEMSミラーにより反射され、光学部材に入射し、光学部材の中を導かれて、虚像形成面に達する。MEMSミラーが光を走査することにより、虚像形成面に虚像が形成され、この虚像を使用者が眼で捉えることで、画像が認識される。この場合の光学部品は、例えば上記実施形態の右導光板261及び左導光板262のように、複数回の反射を経て光を導くものであってもよく、ハーフミラー面を利用してもよい。
また、本発明の表示装置は頭部装着型の表示装置に限定されず、フラットパネルディスプレイやプロジェクター等の各種の表示装置に適用できる。本発明の表示装置は、外光とともに画像光により画像を視認させるものであればよく、例えば、外光を透過させる光学部材により画像光による画像を視認させる構成が挙げられる。具体的には、上記のヘッドマウントディスプレイにおいて外光を透過する光学部材を備えた構成の他、使用者から離れた位置に固定的に、又は可動に設置された透光性の平面や曲面(ガラスや透明なプラスチック等)に画像光を投射する表示装置にも適用可能である。一例としては、車両の窓ガラスに画像光を投射し、乗車している使用者や車両の外にいる使用者に、画像光による画像とともに、車両内外の景色を視認させる表示装置の構成が挙げられる。また、例えば、建物の窓ガラスなど固定的に設置された透明また半透明、或いは有色透明な表示面に画像光を投射し、表示面の周囲にいる使用者に、画像光による画像とともに、表示面を透かして景色を視認させる表示装置の構成が挙げられる。
また、本発明は、外光とともに画像を視認させる表示装置に限らず、各種の表示装置に適用可能であり、例えば外景を視認できない状態で画像を表示する表示装置にも適用可能である。具体的には、カメラ61の撮像画像、この撮像画像に基づき生成される画像やCG、予め記憶された映像データや外部から入力される映像データに基づく映像等を表示する表示装置に、本発明を適用できる。この種の表示装置としては、外景を視認できない、いわゆるクローズ型の表示装置を含むことができる。また、AR表示、MR表示、或いはVR表示といった処理を行わず、外部から入力される映像データまたはアナログ映像信号を表示する表示装置も、本発明の適用対象として勿論含まれる。
また、図2に示した各機能ブロックのうち少なくとも一部は、ハードウェアで実現してもよいし、ハードウェアとソフトウェアの協働により実現される構成としてもよく、図2に示した通りに独立したハードウェア資源を配置する構成に限定されない。また、制御部140が実行するプログラムは、記憶部120又は制御装置10内の記憶装置に記憶されてもよいし、外部の装置に記憶されたプログラムを通信部117又はインターフェイス125を介して取得して実行する構成としてもよい。
また、制御部140が実行するプログラムの機能、すなわち制御部140が備える各処理部(例えば、画像処理部160、表示制御部170、操作検出部183、GUI制御部185、音声処理部190、或いはその他の生成部、判定部、特定部等)を、当該機能を実現するために設計されたASIC(Application Specific Integrated Circuit:特定用途向け集積回路)やSoC(System on a Chip)を用いて構成してもよい。また、FPGA(Field-Programmable Gate Array))等のプログラマブルデバイスにより実現してもよい。
また、制御装置10に形成された構成のうち、操作部111のみが単独の使用者インターフェイス(UI)として形成されてもよい。また、制御装置10に形成された構成が重複して画像表示部20に形成されていてもよい。例えば、図2に示す制御部140が制御装置10と画像表示部20との両方に形成されていてもよいし、制御装置10に形成された制御部140と画像表示部20に形成されたCPUとが行う機能が別々に分けられている構成としてもよい。
10…制御装置、14、14a、14b、14c、14d…トラックパッド(操作面)、20…画像表示部(表示部)、22…右表示駆動部、24…左表示駆動部、61…カメラ、100…HMD(表示装置)、110…入力情報取得部、111…操作部、120…記憶部、121…設定データ、123…コンテンツデータ、140…制御部、160…画像処理部、170…表示制御部、182…操作検出部、185…GUI制御部、190…音声処理部、261…右導光板、262…左導光板、P…ポインター(表示オブジェクト)。

Claims (11)

  1. 表示部と、
    操作を検出する操作面を有する操作部と、
    前記表示部に操作対象の表示オブジェクトを表示させ、前記操作面に対する操作に対応して前記表示オブジェクトの表示位置を変化させる制御部と、を備え、
    前記制御部は、前記操作面における操作位置に基づき前記表示オブジェクトの移動方向を求め、前記操作面に対する操作が終了するまで前記移動方向に前記表示オブジェクトを移動させること、
    を特徴とする表示装置。
  2. 前記制御部は、前記表示オブジェクトの移動方向を、前記操作面における操作位置の移動方向に対応する方向にすること、
    を特徴とする請求項1記載の表示装置。
  3. 前記制御部は、前記操作面に対する操作を検出した後、前記表示オブジェクトの移動方向を求める処理を行ってから、前記表示オブジェクトを移動させること、
    を特徴とする請求項1または2記載の表示装置。
  4. 前記制御部は、前記操作面に対する操作を検出した後、前記表示オブジェクトの移動方向を求める処理を行う間、前記操作面の操作位置に対応する表示位置に前記表示オブジェクトを移動させること、
    を特徴とする請求項3記載の表示装置。
  5. 前記制御部は、前記操作面における操作に応じて前記表示オブジェクトの移動速度を求め、求めた移動速度で前記移動方向に前記表示オブジェクトを移動させること、
    を特徴とする請求項1から4のいずれかに記載の表示装置。
  6. 前記制御部は、前記表示オブジェクトの移動中における前記操作面の操作位置の変化に応じて、前記表示オブジェクトの移動速度を変化させること、
    を特徴とする請求項5記載の表示装置。
  7. 前記操作部および前記制御部は、前記操作面に対して操作体が接触した場合に接触操作を検出し、前記操作面から前記操作体が離れて接触が解除された場合に、前記操作の終了を検出すること、
    を特徴とする請求項1から6のいずれかに記載の表示装置。
  8. 前記操作面において前記操作部が操作を検出する面積またはサイズは、前記表示部が画像を表示する表示領域の面積またはサイズよりも小さいこと、
    を特徴とする請求項1から7のいずれかに記載の表示装置。
  9. 前記操作面の形状は、前記表示部が画像を表示する表示領域とは異なる形状であること、
    を特徴とする請求項1から8のいずれかに記載の表示装置。
  10. 表示部と、操作を検出する操作面を有する操作部と、を有する表示装置を制御して、
    前記表示部に操作対象の表示オブジェクトを表示させ、前記操作面に対する操作に対応して前記表示オブジェクトの表示位置を変化させる制御を行いし、
    前記操作面における操作位置に基づき前記表示オブジェクトの移動方向を求め、前記操作面に対する操作が終了するまで前記移動方向に前記表示オブジェクトを移動させること、
    を特徴とする表示装置の制御方法。
  11. 表示部と、操作を検出する操作面を有する操作部と、を有する表示装置を制御するコンピューターが実行可能なプログラムであって、
    前記コンピューターを、
    前記表示部に操作対象の表示オブジェクトを表示させ、前記操作面に対する操作に対応して前記表示オブジェクトの表示位置を変化させる制御を行い、前記操作面における操作位置に基づき前記表示オブジェクトの移動方向を求め、前記操作面に対する操作が終了するまで前記移動方向に前記表示オブジェクトを移動させる制御部として機能させる、プログラム。
JP2015097943A 2015-05-13 2015-05-13 表示装置、表示装置の制御方法、及び、プログラム Pending JP2016212769A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2015097943A JP2016212769A (ja) 2015-05-13 2015-05-13 表示装置、表示装置の制御方法、及び、プログラム
US15/149,710 US10001857B2 (en) 2015-05-13 2016-05-09 Display apparatus and method of controlling display apparatus
EP16169606.7A EP3093751A1 (en) 2015-05-13 2016-05-13 Display apparatus and method of controlling display apparatus
CN201610319968.XA CN106168848B (zh) 2015-05-13 2016-05-13 显示装置以及显示装置的控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015097943A JP2016212769A (ja) 2015-05-13 2015-05-13 表示装置、表示装置の制御方法、及び、プログラム

Publications (1)

Publication Number Publication Date
JP2016212769A true JP2016212769A (ja) 2016-12-15

Family

ID=57549848

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015097943A Pending JP2016212769A (ja) 2015-05-13 2015-05-13 表示装置、表示装置の制御方法、及び、プログラム

Country Status (1)

Country Link
JP (1) JP2016212769A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200062287A (ko) * 2017-10-12 2020-06-03 아우디 아게 헤드 마운티드 전자 디스플레이 장치를 작동하기 위한 방법 및 가상 콘텐츠를 디스플레이하기 위한 디스플레이 시스템

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030222856A1 (en) * 2002-01-29 2003-12-04 Fedorak Mark V. Computer pointer control
US20140306899A1 (en) * 2013-04-10 2014-10-16 Barnesandnoble.Com Llc Multidirectional swipe key for virtual keyboard

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030222856A1 (en) * 2002-01-29 2003-12-04 Fedorak Mark V. Computer pointer control
US20140306899A1 (en) * 2013-04-10 2014-10-16 Barnesandnoble.Com Llc Multidirectional swipe key for virtual keyboard

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200062287A (ko) * 2017-10-12 2020-06-03 아우디 아게 헤드 마운티드 전자 디스플레이 장치를 작동하기 위한 방법 및 가상 콘텐츠를 디스플레이하기 위한 디스플레이 시스템
JP2020537257A (ja) * 2017-10-12 2020-12-17 アウディ アクチェンゲゼルシャフトAudi Ag 頭部着用型の電子表示装置の操作方法および仮想コンテンツを表示する表示システム
KR102382718B1 (ko) 2017-10-12 2022-04-08 아우디 아게 헤드 마운티드 전자 디스플레이 장치를 작동하기 위한 방법 및 가상 콘텐츠를 디스플레이하기 위한 디스플레이 시스템
US11364441B2 (en) 2017-10-12 2022-06-21 Audi Ag Method for operating an electronic display device wearable on the head and display system for displaying virtual content

Similar Documents

Publication Publication Date Title
US10001857B2 (en) Display apparatus and method of controlling display apparatus
US9965048B2 (en) Head-mount type display device, control system, method of controlling head-mount type display device, and computer program
US9898868B2 (en) Display device, method of controlling the same, and program
US9959591B2 (en) Display apparatus, method for controlling display apparatus, and program
US10635182B2 (en) Head mounted display device and control method for head mounted display device
US10303435B2 (en) Head-mounted display device, method of controlling head-mounted display device, and computer program
JP6500477B2 (ja) 頭部装着型表示装置、制御システム、頭部装着型表示装置の制御方法、および、コンピュータープログラム
US20160110921A1 (en) Head mounted display, method of controlling head mounted display, and computer program
CN105739095B (zh) 显示装置以及显示装置的控制方法
JP6432197B2 (ja) 表示装置、表示装置の制御方法、および、プログラム
US9799144B2 (en) Head mounted display, and control method for head mounted display
JP6427942B2 (ja) 頭部装着型表示装置、制御システム、および、頭部装着型表示装置の制御方法
JP2016004340A (ja) 情報配信システム、頭部装着型表示装置、頭部装着型表示装置の制御方法、および、コンピュータープログラム
JP6492673B2 (ja) 頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム
JP2017091433A (ja) 頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム
US20160021360A1 (en) Display device, method of controlling display device, and program
US20160035137A1 (en) Display device, method of controlling display device, and program
JP6303274B2 (ja) 頭部装着型表示装置および頭部装着型表示装置の制御方法
JP2017182228A (ja) 入力装置、入力方法、コンピュータープログラム
JP2017120488A (ja) 表示装置、表示システム、表示装置の制御方法、及び、プログラム
JP2016033763A (ja) 表示装置、表示装置の制御方法、および、プログラム
JP6740613B2 (ja) 表示装置、表示装置の制御方法、及び、プログラム
JP2016212769A (ja) 表示装置、表示装置の制御方法、及び、プログラム
JP2017157120A (ja) 表示装置、及び、表示装置の制御方法
JP2016034091A (ja) 表示装置、表示装置の制御方法、および、プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180420

RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20180906

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20181116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190314

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190903