JP6932917B2 - 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法 - Google Patents
頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法 Download PDFInfo
- Publication number
- JP6932917B2 JP6932917B2 JP2016232373A JP2016232373A JP6932917B2 JP 6932917 B2 JP6932917 B2 JP 6932917B2 JP 2016232373 A JP2016232373 A JP 2016232373A JP 2016232373 A JP2016232373 A JP 2016232373A JP 6932917 B2 JP6932917 B2 JP 6932917B2
- Authority
- JP
- Japan
- Prior art keywords
- unit
- display
- image
- marker
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
Description
特許文献1は、頭部に装着された複数個の発信装置から発信される超音波や、電磁波等に基づいて頭部の位置や向きの変化を検出し、検出した頭部の位置や向きの変化に対応してディスプレイ上の特定の位置を指示する頭部駆動型ポインティング装置を開示する。
本発明は、操作性を向上させ、頭部装着型表示装置の使い勝手を向上させることを目的とする。
本発明によれば、マーカーの位置を第1操作と第2操作とで異なる態様で移動させることができる。従って、マーカーを複数の態様で移動させることができるため、マーカーの操作の操作性を向上させ、頭部装着型表示装置の使い勝手を向上させることができる。
本発明によれば、使用者の動作によりマーカーの位置を移動させることができる。
本発明によれば、操作部の操作と、頭部の動きとによってマーカーの位置を移動させることができる。
本発明によれば、マーカーにより対象物体を特定し、表示画像を特定することができる。
本発明によれば、動作モードを変更することで、マーカーを異なる態様で移動させることができる。
本発明によれば、頭部装着型表示装置の動作モードが第1の動作モードであるときに、第1操作又は第2操作が検出されると、外景を基準としてマーカーを移動させることができる。また、頭部装着型表示装置の動作モードが第2の動作モードであるときに、第1操作又は第2操作が検出されると、表示画像を基準としてマーカーを移動させることができる。
本発明によれば、マーカーの移動量が第2操作よりも大きい第1操作によりマーカーを移動させた後に、マーカーの移動量が第1操作よりも小さい第2操作によりマーカーを移動させることができる。従って、マーカーを対象物体又は表示画像に近づけるための操作の回数を低減し、マーカーの移動量が小さい第2操作によりマーカーを対象物体又は表示画像の位置に微調整することができる。
本発明によれば、対象物体までの距離に応じて、マーカーを異なる態様で移動させることができる。従って、マーカーの操作の操作性を向上させ、頭部装着型表示装置の使い勝手を向上させることができる。
本発明によれば、対象物体までの距離がしきい値よりも大きい場合には、検出部が検出する操作を、マーカーの移動量が第2操作よりも大きい第1操作とし、第1操作によりマーカーを移動させることができる。また、対象物体までの距離がしきい値以下である場合には、検出部が検出する操作を、マーカーの移動量が第1操作よりも小さい第2操作とし、第2操作によりマーカーを移動させることができる。
従って、マーカーを対象物体に近づけるための操作の回数を低減し、マーカーの移動量が小さい第2操作によりマーカーを対象物体又は表示画像の位置に微調整することができる。
本発明によれば、動作モードを変更することで、マーカーを異なる態様で移動させることができる。
本発明によれば、頭部装着型表示装置の動作モードが第1の動作モードであるときに操作が検出されると、外景を基準としてマーカーを移動させることができる。また、頭部装着型表示装置の動作モードが第2の動作モードであるときに操作が検出されると、表示画像を基準としてマーカーを移動させることができる。
本発明によれば、マーカーの移動量が第2操作よりも大きい第1操作によりマーカーを移動させた後に、マーカーの移動量が第1操作よりも小さい第2操作によりマーカーを移動させることができる。従って、マーカーを対象物体又は表示画像に近づけるための操作の回数を低減し、マーカーの移動量が小さい第2操作によりマーカーを対象物体又は表示画像の位置に微調整することができる。
本発明によれば、マーカーの位置を第1操作と第2操作とで異なる態様で移動させることができる。従って、マーカーを複数の態様で移動させることができるため、マーカーの操作の操作性を向上させ、頭部装着型表示装置の使い勝手を向上させることができる。
本発明によれば、マーカーの位置を第1操作と第2操作とで異なる態様で移動させることができる。従って、マーカーを複数の態様で移動させることができるため、マーカーの操作の操作性を向上させ、頭部装着型表示装置の使い勝手を向上させることができる。
HMD100は、使用者(ユーザー)の頭部に装着された状態で使用者に虚像を視認させる画像表示部20(表示部)と、画像表示部20を制御する制御装置10と、を備える表示装置である。
右保持部21及び左保持部23は、それぞれ、前部フレーム27の両端部から後方に延び、眼鏡のテンプル(つる)のように、使用者の頭部に画像表示部20を保持する。ここで、前部フレーム27の両端部のうち、画像表示部20の装着状態において使用者の右側に位置する端部を端部ERとし、使用者の左側に位置する端部を端部ELとする。右保持部21は、前部フレーム27の端部ERから、画像表示部20の装着状態において使用者の右側頭部に対応する位置まで延伸して設けられる。左保持部23は、端部ELから、画像表示部20の装着状態において使用者の左側頭部に対応する位置まで延伸して設けられる。
右導光板26及び左導光板28の表面に、調光板(図示略)を設けてもよい。調光板は、光の波長域により透過率が異なる薄板上の光学素子であり、いわゆる波長フィルターとして機能する。調光板は、例えば、使用者の眼の側と反対の側である前部フレーム27の表側を覆うように配置される。この調光板の光学特性を適宜選択することにより、可視光、赤外光及び紫外光等の任意の波長域の光の透過率を調整することができ、外部から右導光板26及び左導光板28に入射し、右導光板26及び左導光板28を透過する外光の光量を調整できる。
カメラ61は、本発明の「撮像部」に相当する。
カメラ61は、制御部150(図5)が備える撮像制御部147の制御に従って撮像を実行する。カメラ61は、撮像画像データを、後述するインターフェイス211を介して制御部150に出力する。
図2に示すように、右表示ユニット22及び左表示ユニット24は、左右対称に構成される。右表示ユニット22は、使用者の右眼REに画像を視認させる構成として、画像光を発するOLED(Organic Light Emitting Diode)ユニット221と、OLEDユニット221が発する画像光Lを導くレンズ群等を備えた右光学系251とを備える。画像光Lは、右光学系251により右導光板26に導かれる。
なお、OLEDパネル223は、白色に発光する発光素子をマトリクス状に配置し、R、G、Bの各色に対応するカラーフィルターを重ねて配置する構成であってもよい。また、R、G、Bの色光をそれぞれ放射する発光素子に加え、W(白)の光を発する発光素子を備えるWRGB構成のOLEDパネル223を用いてもよい。
ハーフミラー261、281は、右表示ユニット22及び左表示ユニット24がそれぞれ出力する画像光を反射して画像を取り出す画像取り出し部であり、表示部ということができる。
制御装置10と画像表示部20とを無線接続してもよい。例えば、Bluetooth(登録商標)、無線LAN(Wi−Fi(登録商標)を含む)等の規格に準拠した無線通信により、制御装置10と画像表示部20とが制御信号やデータを相互に送受信する構成としてもよい。
LEDインジケーター12は、HMD100の動作状態に対応して点灯し、又は点滅する。上下キー15は、右イヤホン32及び左イヤホン34から出力する音量の増減の指示入力や、画像表示部20の表示の明るさの増減の指示入力に利用される。切替スイッチ16は、上下キー15の操作に対応する入力を切り替えるスイッチである。電源スイッチ18は、HMD100の電源のオン/オフを切り替えるスイッチであり、例えばスライドスイッチである。
図3では、使用者の右眼REに画像光を照射するハーフミラー261、及び左眼LEに画像光を照射するハーフミラー281が、略四角形の領域として見える。また、ハーフミラー261、281を含む右導光板26及び左導光板28の全体が、上述したように外光を透過する。このため、使用者には、右導光板26及び左導光板28の全体を透過して外景が視認され、ハーフミラー261、281の位置に矩形の表示画像が視認される。
制御装置10は、プログラムを実行してHMD100を制御するメインプロセッサー140を備える。メインプロセッサー140には、不揮発性記憶部121及びメモリー123及びが接続される。また、メインプロセッサー140には、入力装置としてトラックパッド14及び操作部110が接続される。また、メインプロセッサー140には、センサー類として、6軸センサー111、磁気センサー113が接続される。また、メインプロセッサー140には、GPS受信部115、通信部117、ビーコン受信部119、音声コーデック180、外部コネクター184、外部メモリーインターフェイス186、USBコネクター188、センサーハブ192及びFPGA194が接続される。これらは外部とのインターフェイスとして機能する。
操作部110は、ボタン11及びLED表示部17を含む。操作部110は、ボタン11が有するボタンやスイッチ等の操作子が操作された場合に、操作された操作子に対応する操作信号をメインプロセッサー140に出力する。
磁気センサー113は、例えば、3軸の地磁気センサーである。
6軸センサー111及び磁気センサー113は、検出値を、予め指定されたサンプリング周期に従ってメインプロセッサー140に出力する。また、6軸センサー111及び磁気センサー113は、メインプロセッサー140の要求に応じて、メインプロセッサー140により指定されたタイミングで、検出値をメインプロセッサー140に出力する。
ビーコン受信部119は、本発明の「距離検出部」に相当する。
インターフェイス211は、受信部213、EEPROM215、温度センサー217、カメラ61、照度センサー65、及びLEDインジケーター67を、制御装置10に接続する。
照度センサー65は、図1に示すように、前部フレーム27の端部ERに設けられ、画像表示部20を装着する使用者の前方からの外光を受光するよう配置される。照度センサー65は、受光量(受光強度)に対応する検出値を出力する。
LEDインジケーター67は、図1に示すように、前部フレーム27の端部ERにおいてカメラ61の近傍に配置される。LEDインジケーター67は、カメラ61による撮像を実行中に点灯して、撮像中であることを報知する。
インターフェイス231は、受信部233、6軸センサー235、磁気センサー237、及び温度センサー239を、制御装置10に接続する。
磁気センサー237は、例えば、3軸の地磁気センサーである。
また、温度センサー239が、OLEDパネル243又はOLED駆動回路245に内蔵されてもよい。また、上記基板は半導体基板であってもよい。具体的には、OLEDパネル243が、Si−OLEDとして、OLED駆動回路245等とともに統合半導体チップ上の集積回路として実装される場合、この半導体チップに温度センサー239を実装してもよい。
また、センサーハブ192は、メインプロセッサー140の制御に従ってLEDインジケーター67への通電を開始及び停止させ、カメラ61が撮像を開始及び終了するタイミングに合わせて、LEDインジケーター67を点灯又は点滅させる。
記憶部125は、制御部150が処理する各種のデータを記憶する。記憶部125は、設定データ127及びコンテンツデータ128を記憶する。
設定データ127は、HMD100の動作を設定する各種の設定値を含む。また、制御部150がHMD100を制御する際にパラメーター、行列式、演算式、LUT(LookUp Table)等を用いる場合、これらを設定データ127に含めてもよい。
また、コンテンツデータ128は、コンテンツを画像表示部20により表示する際に、制御装置10によって使用者の操作を受け付け、受け付けた操作に応じた処理を制御部150が実行する、双方向型のコンテンツであってもよい。この場合、コンテンツデータ128は、操作を受け付ける場合に表示するメニュー画面の画像データ、メニュー画面に含まれる項目に対応する処理等を定めるデータ等を含んでもよい。
オペレーティングシステム143の機能は、記憶部125が記憶する制御プログラムの機能であり、その他の各部は、オペレーティングシステム143上で実行されるアプリケーションプログラムの機能である。
また、画像処理部145は、必要に応じて、画像データの解像度を右表示ユニット22及び左表示ユニット24に適した解像度に変換する解像度変換処理を行ってもよい。また、画像処理部145は、画像データの輝度や彩度を調整する画像調整処理、3D画像データから2D画像データを作成し、又は2D画像データから3D画像データを生成する2D/3D変換処理等を実行してもよい。画像処理部145は、これらの画像処理を実行した場合、処理後の画像データに基づき画像を表示するための信号を生成して、接続ケーブル40を介して画像表示部20に送信する。
画像処理部145は、メインプロセッサー140がプログラムを実行して実現される構成のほか、メインプロセッサー140と別のハードウェア(例えば、DSP(Digital Signal Processor))で構成してもよい。
また、操作制御部149は、トラックパッド14における操作を検出した場合に、トラックパッド14における操作位置の座標を取得する。操作制御部149は、操作位置の軌跡を生成する。操作位置の軌跡は、トラックパッド14のタッチ操作が解除されない間、すなわち使用者の手や指操作体がトラックパッド14に接触した状態が継続する間の操作位置の軌跡である。操作制御部149は、検出した操作位置の軌跡を示す操作データを表示制御部153に出力する。操作制御部149は、本発明の「検出部」に相当する。
6軸センサー235の角速度センサーは、内蔵する検出機構の測定基準点において、図1に示すX軸まわりの回転(ピッチ角)、Y軸回りの回転(ヨー角)、及びZ軸まわりの回転(ロール角)を検出する。X軸、Y軸及びZ軸は、図1に示すように相互に直交する3軸方向であり、Z軸方向が鉛直方向に対応し、X軸方向が使用者の頭部の左右方向に対応し、Y軸方向が使用者の頭部の前後方向に対応する。
検出制御部151は、6軸センサー235の検出値によりX軸まわりの回転(ピッチ角)を検出して、使用者が顔を上げる又は下げる動きを検出する。また、検出制御部151は、6軸センサー235の検出値によりY軸まわりの回転(ヨー角)を検出して、使用者が首を左肩又は右肩の方向に傾ける動きを検出する。また、検出制御部151は、6軸センサー235の検出値によりZ軸まわりの回転(ロール角)を検出して、使用者が顔を左又は右に回す動きを検出する。以下では、顔を上げるや下げる動き、首を左肩又は右肩の方向に傾ける動き、顔を左又は右に回す動きを総称して、頭部の傾きという。
検出制御部151は、6軸センサー235の検出値に基づき、頭部の傾きの方向と、傾いた頭部の角度とを示す情報を操作データとして生成し、生成した操作データを表示制御部153に出力する。
表示制御部153は、操作制御部149から操作データとして、操作面上の移動距離と、移動方向とを示すデータが入力される。表示制御部153は、入力された操作データに基づき、ポインター301を移動させる移動方向と、移動距離とを示す制御信号を生成し、生成した制御信号を右表示ユニット22及び左表示ユニット24に出力する。
また、表示制御部153は、検出制御部151から入力される操作データに従って表示領域310に表示されたポインター301(図6)の位置を移動させる。表示制御部153には、検出制御部151から操作データとして、頭部の傾きを検出した方向と、傾いた頭部の角度とを示すデータが入力される。表示制御部153は、入力された操作データに基づいて、ポインター301を移動させる移動方向と、移動距離とを示す制御信号を生成する。
表示制御部153は、例えば、入力される操作データから頭部の傾きが検出された方向を特定し、この特定した方向に対応する表示領域310の方向にポインター301を移動させる制御信号を生成してもよい。また、表示制御部153は、操作データから頭部の傾きが検出された方向を特定すると共に、傾いた頭部の角度を特定してもよい。そして、表示制御部153は、特定した方向に対応する表示領域310の方向に移動させ、特定した頭部の角度に対応する速度で移動させるようにポインター301を制御する制御信号を生成する。
表示制御部153は、生成した制御信号を右表示ユニット22及び左表示ユニット24に出力する。
表示制御部153は、画像表示部20にキャリブレーション用画像を表示させながら、キャリブレーション用画像に対応した参照実物体を、カメラ61の撮像画像データから認識し、追跡する。この状態で、使用者が、トラックパッド14等のユーザーインターフェイスを介してキャリブレーション用画像の位置を画像表示部20上で移動させる。そして、使用者が、キャリブレーション用画像と参照実物体とが重なる(位置、大きさ、向きの少なくとも1つがほぼ一致する)ように知覚したタイミングにて、ユーザーインターフェイスを介して表示制御部153に通知する。表示制御部153は、取得した通知に応じて、当該タイミングでの参照実物体の検出結果(撮像画像データ上の位置)と、表示領域310でのキャリブレーション用画像の表示位置とを対応付けるパラメーターを生成する。表示制御部153は、生成されたパラメーターを記憶部125に記憶させる。
このパラメーターは、ポインター301により選択される対象物体を特定する際に使用される。制御部150は、カメラ61の撮像画像データを取得し、ポインター301が表示された表示領域310の座標を、撮像画像データ上の座標に変換して、対象物体を特定する。
使用者は、現実世界(以下、外景という)に存在する人や、建物、道路、その他の物体(以下、これらを総称して対象物体という)と、画像表示部20が表示する表示画像とを画像表示部20越しに視認する。画像表示部20が表示する表示画像には、例えば、ポインター301や、画像や映像等のコンテンツが含まれる。画像表示部20が制御部150の制御に従って、コンテンツデータを再生することで、表示領域310にコンテンツが再生される。表示領域310は、画像表示部20が表示画像を表示可能な領域を示す。
操作によってポインター301を移動させる移動距離を小さく設定した場合、又は移動速度を遅く設定した場合、ポインター301の位置とターゲットとの距離が離れていると、ポインター301をターゲットの近くまで移動させるのに時間がかかる。また、操作によってポインター301を移動させる移動距離を大きく設定した場合、又は移動速度を速く設定した場合、ポインター301をターゲットの位置に位置合わせする微調整が難しくなる場合がある。
このため、本実施形態のHMD100は、ポインター301の移動距離、移動速度又は加速度の少なくともいずれかが異なる第1操作と、第2操作との2つの操作により、ポインター301をターゲットの位置に移動させる。なお、ターゲットは、画像表示部20が表示させる表示画像であってもよいし、外景として視認する対象物体であってもよい。
例えば、第1操作及び第2操作が、スイッチやボタンの押下操作であると仮定する。この場合、第1操作による押下操作を1回受け付けた場合にポインター301を移動させる移動距離、移動速度又は加速度を、第2操作による押下操作を1回受け付けた場合にポインター301を移動させる移動距離、移動速度又は加速度よりも大きく設定する。移動距離、移動速度又は加速度は、本発明の「移動量」に相当する。
また、第1操作及び第2操作が、操作面に対する接触操作であり、検出した操作面上での指の接触距離に応じてポインター301を移動させる操作であると仮定する。この場合、第1操作である指の接触距離に対応してポインター301を移動させる移動距離、移動速度又は加速度を、第2操作である指の接触距離に対応してポインター301を移動させる移動距離、移動速度又は加速度よりも大きく又は速く設定する。
また、第1操作及び第2操作が、操作面に対する接触操作や、使用者の頭部の傾きを検出してポインター301を移動させる操作であり、接触操作や頭部の傾きが検出された検出時間に対応した距離だけポインター301を移動させる操作であると仮定する。この場合、第1操作の検出時間に対応してポインター301を移動させる移動距離、移動速度又は加速度を、第2操作の検出時間に対応してポインター301を移動させる移動距離、移動速度又は加速度よりも大きく又は速く設定する。
また、本実施形態では、使用者の頭部の傾きを操作として検出し、検出した操作に応じてポインター301を移動させる操作を第2操作とする。使用者が頭部を傾けて行うポインター301の操作は、本発明の「使用者の動作」に相当する。頭部を傾けてポインター301を操作する場合、使用者は頭部を操作が完了するまで傾け続けなければならず、無理な体勢を維持し続けなければならない場合があった。しかし、本実施形態では、第2操作の前に行われる第1操作によって、ポインター301が既にターゲットの近傍に移動しているので、第2操作を行う時間を短縮することができる。
図1に示す使用者の頭部のX軸まわりの回転が検出された場合、制御部150は、例えば、ポインター301を図6に示すz軸方向、すなわち表示領域310の鉛直方向に移動させる。また、図1に示す使用者の頭部のY軸まわりの回転が検出された場合、制御部150は、例えば、ポインター301を図6に示すy軸方向、すなわち表示領域310の奥行き方向に移動させる。また、図1に示す使用者の頭部のZ軸まわりの回転が検出された場合、制御部150は、例えば、ポインター301を図6に示すx軸方向、すなわち表示領域310の水平方向に移動させる。
なお、使用者が頭部を傾ける方向と、ポインター301を移動させる移動方向との対応付けは、上述したものに限定されるものではなく、任意に設定することができる。
また、第1操作から第2操作への切り替えは、操作面への接触が検出されるか否かに限定されない。例えば、予め設定されたボタン11や、上下キー15、切替スイッチ16が操作された場合や、トラックパッド14を予め設定された回数叩く操作を受け付けた場合に、第1操作から第2操作へ切り替えてもよい。また、マイク63から入力される音声により第1操作から第2操作に切り替えてもよい。例えば、フィンガースナップの音や、使用者が発した言葉をマイク63から入力し、入力した音声データが予め設定された音声データに一致した場合に、第1操作から第2操作に切り替えてもよい。
また、制御部150は、使用者の手の爪や、使用者が手指に嵌めた指輪、腕に嵌めた腕輪や、時計、バンドの動きを第1操作及び第2操作のいずれか一方として検出してもよい。制御部150は、カメラ61の撮像画像から使用者の手の爪や、使用者が手指に嵌めた指輪、腕に嵌めた腕輪や、時計、バンドの動きを検出し、検出した動きに応じてポインター301を移動させる。
第1の動作モードと第2の動作モードとの動作モードの切替えは、例えば、ボタン11や、上下キー15、切替スイッチ16等の操作を受け付けた場合に行ってもよい。また、トラックパッド14を予め設定された回数叩く操作を受け付けた場合に、動作モードの切替えを行ってもよい。
ここで、視線センサーについて説明する。
視線センサー68は、使用者の右眼RE、及び、左眼LEのそれぞれに対応するように、右導光板26と左導光板28との中央位置に一対設けられる。視線センサーは、例えば、使用者の右眼REと左眼LEとをそれぞれ撮像する一対のカメラで構成される。視線センサーは、制御部150の制御に従って撮像を行い、制御部150が、撮像画像データから右眼RE及び左眼LEの眼球表面における反射光や瞳孔の画像を検出し、視線方向を特定する。
制御部150は、視線センサーにより検出される視線方向に対象物体が存在する場合、HMD100の動作モードを第1の動作モードに設定する。また、制御部150は、視線センサーにより検出される視線方向に表示画像が存在する場合、HMD100の動作モードを第2の動作モードに設定する。
使用者は、第2操作によってポインター301を操作する場合、首を左肩側又は右肩側に傾ける動作を行う場合がある。このとき、表示領域310も使用者の首の傾きに応じて傾くが、画像表示部20越しに見る対象物体は傾かないため、図7に示すように使用者には対象物体である自動販売機320が傾いて見える。
また、制御部150は、6軸センサー235の検出値に基づいて、画像表示部20が表示する表示画像の傾きを調整する。すなわち、表示画像は、図8に示すように頭部の傾きに応じて傾いた表示となり、使用者には、表示画像が水平に見える。
また、制御部150は、動作モードが第2の動作モードであって、6軸センサー235の検出値により画像表示部20の傾きを検出した場合、検出した傾きに合わせてポインター301を移動させる。すなわち、第2の動作モードでは、表示画像を基準として、ポインター301を移動させる。図8には、表示画像であるワープロソフトウェアの表示画面302の傾きに合わせてポインター301を移動させる様子を示す。
第1操作によりポインター301を操作し、ポインター301をターゲットの近くに移動させると、図9に示すようにポインター301の近くに存在するターゲットが拡大表示される。
制御部150は、カメラ61が撮像する撮像画像データを取得し、取得した撮像画像データから対象物体を検出する。制御部150は、ポインター301の表示位置から予め設定された範囲内に対象物体を検出すると、この対象物体の画像を撮像画像データから抽出し、抽出した対象物体の画像を拡大して表示領域310に表示させる。
また、制御部150は、ポインター301の表示位置から予め設定された範囲内に対象物体を検出された場合に、対象物体の画像を拡大表示させるか否かを問い合わせる表示を表示領域310に表示させてもよい。制御部150は、例えば、対象物体の画像を拡大表示させる旨の指示をボタン11やトラックパッド14により受け付けた場合に、対象物体の画像を拡大して表示領域310に表示させる。拡大して表示された対象物体の画像を拡大画像303という。
また、HMD100は、無線接続した外部の装置から送信される信号を受信した場合に、確定操作を受け付けたと判定してもよい。外部の装置には、例えば、使用者の腕等の装着されるウェアラブル端末等を用いることができる。使用者は、ポインター301がターゲットに重なると、ウェアラブル端末により予め設定された操作を入力する。ウェアラブル端末は、予め設定された操作を受け付けると、HMD100に所定の信号を送信する。HMD100の制御部150は、ウェアラブル端末から所定の信号を受信した場合、確定操作を受け付けたと判定する。
上述した説明では、第1操作によりポインター301を操作する場合と、第2操作によりポインター301を操作する場合とで、ポインター301の移動距離や、移動速度、加速度を変更した。
これ以外の動作として、HMD100とターゲットとの距離に応じて、ポインター301の移動の態様である移動距離や、移動速度、加速度を変更してもよい。例えば、図10に示すようにターゲットがビーコン信号を送信するビーコン送信部321を備える場合、HMD100は、ターゲットから送信されるビーコン信号をビーコン受信部119で受信する。制御部150は、受信したビーコン信号の電波強度に基づき、ターゲットまでの距離を推定する。制御部150は、推定したターゲットまでの距離に応じて、第1又は第2操作により移動させるポインター301の移動距離や、移動速度、加速度を変更する。
例えば、制御部150は、ビーコン信号の電波強度に基づいて推定した距離と、予め設定されたしきい値とを比較して、HMD100とターゲットとの距離がしきい値として設定された距離よりも大きいか否かを判定する。
制御部150は、HMD100とターゲットとの距離がしきい値よりも大きい(離れている)場合、第1操作であるトラックパッド14の操作を検出し、検出した第1操作に応じてポインター301の位置を移動させる。また、制御部150は、ターゲットとの距離がしきい値よりも大きい(離れている)場合に、第1操作により移動させるポインター301の移動距離を第1距離とする。
また、制御部150は、ターゲットとの距離がしきい値以下(近い)である場合、第2操作である頭部の傾きを検出し、検出した傾きに応じてポインター301の位置を移動させる。また、制御部150は、ターゲットとの距離がしきい値以下の場合、第2操作により移動させるポインター301の距離を第2距離とする。
第2距離は、第1距離よりも大きい値に設定される。すなわち、HMD100とターゲットとの距離が近くなるほど、ポインター301の移動距離が大きくなるように設定する。
また、上述した説明とは逆に、HMD100とターゲットとの距離が近くなるほど、第1又は第2操作によりポインター301を移動させる距離を小さくなるように設定してもよい。
また、上述した説明では、ターゲットとの距離がしきい値よりも大きい場合には第1操作を選択し、ターゲットとの距離がしきい値以下の場合には第2操作を選択した。これ以外に、第1操作と第2操作とのいずれか一方の操作によりポインター301の位置を移動させてもよい。すなわち、ターゲットとの距離がしきい値よりも大きい場合と、しきい値以下の場合との両方において、第1操作又は第2操作のいずれか一方によりポインター301を操作してもよい。
また、図10の説明では、ターゲットから送信されるビーコン信号の電波強度に基づきHMD100との距離を推定したが、HMD100がカメラ61としてステレオカメラを備える場合、このカメラ61の撮像画像によりターゲットまでの距離を求めてもよい。
制御部150は、トラックパッド14の操作面に対する接触操作を検出したか否かを判定する(ステップS1)。制御部150は、トラックパッド14から入力される操作信号に基づき、接触操作を検出したか否かを判定する(ステップS1)。制御部150は、接触操作を検出していない場合(ステップS1/NO)、接触操作を検出するまで待機し、他に実行可能な処理があればこの処理を実行する。また、制御部150は、接触操作を検出した場合(ステップS1/YES)、ポインター301を移動させる(ステップS2)。制御部150がポインター301を移動させる移動距離は、操作面上での使用者の手指の移動距離に対応する距離であり、移動方向は、操作面上での使用者の手指の移動方向に対応する方向である。
制御部150は、操作面への接触を検出した場合(ステップS3/YES)、ステップS1に戻り接触操作を検出したか否かを判定し(ステップS1)、検出した接触操作に応じてポインター301を移動させる(ステップS2)。
制御部150は、取得した6軸センサー235の検出値に基づき使用者の頭部の傾きが検出されたか否かを判定する(ステップS5)。制御部150は、使用者の頭部に傾きがないと判定した場合(ステップS5/NO)、ポインター301の操作を終了させる終了操作を受け付けたか否かを判定する(ステップS6)。制御部150は、終了操作を受け付けていない場合(ステップS6/NO)、ステップS4の判定に戻り、引き続き6軸センサー235の検出値に基づき使用者の頭部の傾きを検出する(ステップS5)。また、制御部150は、終了操作を受け付けた場合(ステップS6/YES)、この処理フローを終了する。
例えば、使用者の顔を上に向ける動作が検出された場合、制御部150は、ポインター301を図6に示すz軸の正方向である上方に移動させる。また、使用者の顔を下に向ける動作が検出された場合、制御部150は、ポインター301をz軸の負方向である下方に移動させる。
また、使用者の顔を左に向ける、すなわち、Z軸まわりの左回転が検出された場合、制御部150は、ポインター301を図6に示すx軸の正方向である左方向に移動させる。また、使用者の顔を右に向ける、すなわち、Z軸まわりの右回転が検出された場合、制御部150は、ポインター301を図6に示すx軸の負方向である右方向に移動させる。
また、制御部150は、対象物体を基準としてポインター301を移動させる場合に、磁気センサー237の検出値に基づき、ポインター301を水平に移動させてもよい。
上述した実施形態は、HMD100により第1操作及び第2操作を検出する構成であったが、外部の装置により第1操作又は第2操作を検出する構成であってもよい。図12には、使用者の靴底又は靴内部に検知装置330を配置し、この検知装置330により第1操作又は第2操作を検出する構成を示す。検知装置330は、例えば、足裏に生じる圧力を検出する圧力センサーと、近距離無線通信によりHMD100と無線通信を行って、圧力センサーが検出した検出値をHMD100に送信する通信装置(ともに不図示)とを備える。
例えば、使用者が体重を爪先側にかけた場合、制御部150は、ポインター301を図6に示すz軸の正方向である上方に移動させる。また、使用者が体重を踵側にかけた場合、制御部150は、ポインター301をz軸の負方向である下方に移動させる。また、使用者が体重を左側にかけた場合、制御部150は、ポインター301を図6に示すx軸の正方向である左方向に移動させる。また、使用者が体重を右側にかけた場合、制御部150は、ポインター301を図6に示すx軸の負方向である右方向に移動させる。また、例えば、ポインター301を表示領域の奥行方向(Y軸方向)に移動させたい場合、前後左右の4方向に順番に体重がかかるように円運動を行う。制御部150は、例えば、前、右、後、左の右回転が検出された場合、ポインター301を図6に示すy軸の正方向である手前側に移動させる。また、制御部150は、例えば、前、左、後、右の左回転が検出された場合、ポインター301を図6に示すy軸の負方向である奥側に移動させる。
図12には、靴底又は靴内部に1つの検知装置330を設けた例を示したが、図13に示すように靴底又は靴内部の中央に1つの検知装置331を配置し、爪先側に2つの検知装置332、333を配置してもよい。検知装置331、332、333の構成は、図12に示す検知装置330と同一であるが、検知装置331、332及び333は、各検知装置331、332及び333がそれぞれに備える圧力センサーが検出する圧力の検出値をHMD100に送信する。
使用者が前方(爪先側)に体重をかけると、検知装置332及び333の検出値は上昇し、検知装置331の検出値は下降する。また、使用者が後方(踵側)に体重をかけると、検知装置331の検出値は上昇し、検知装置332及び333の検出値は下降する。
また、使用者が体重を左側又は右側にかけた場合、検知装置332の検出値と、検知装置333の検出値とが大きく異なる値になる。使用者が体重を左側にかけた場合、検知装置332の検出値が上昇し、検知装置333の検出値が下降する。また、使用者が体重を右側にかけた場合、検知装置332の検出値が下降し、検知装置333の検出値が上昇する。
図14に示す検知装置の配置例は、左右の両足の靴底又は靴内部に、検知装置334、335をそれぞれ配置した例を示す。検知装置334、335の構成は、図12に示す検知装置330と同一であるが、図12に示す検知装置330と同様に前後左右の4方向のうち、圧力が最も高い方向を検出し、検出した方向を示す信号をHMD100に送信する。
使用者は、例えば、ポインター301の表示位置に表示された表示画像を拡大表示させる操作を入力すると仮定する。この場合、使用者は、両足の爪先の内側に体重をかけ、両足の爪先を広げる動作、すなわち両足の爪先を離す動作を行う。この場合、左足の検知装置334は、左足の内側(右側)の圧力が高いと判定し、右側の圧力が高いことを示す信号をHMD100に送信する。また、右足の検知装置335は、右足の内側(左側)の圧力が高いと判定し、左側の圧力が高いことを示す信号をHMD100に送信する。
HMD100は、左足の検知装置334から受信した信号により、左足の右側の圧力が高いと判定し、右足の検知装置335から受信した信号により、右足の左側の圧力が高いと判定した場合、ピンチアウトの操作が入力されたと判定する。この場合、HMD100の制御部150は、例えば、ポインター301と重なる位置に表示された表示画像を拡大表示させる。本実施形態では、ピンチアウトの操作を表示画像の拡大に対応付けた例を説明したが、ポインター301と重なる位置に表示された表示画像を選択する選択操作や、操作を確定させる確定操作に対応付けてもよい。
HMD100は、左足の検知装置334から受信した信号により、左足の左側の圧力が高いと判定し、右足の検知装置335から受信した信号により、右足の右側の圧力が高いと判定した場合、ピンチインの操作が入力されたと判定する。この場合、HMD100の制御部150は、例えば、ポインター301と重なる位置に表示された表示画像を縮小表示させる。本実施形態では、ピンチインの操作を表示画像の拡大に対応付けた例を説明したが、ポインター301と重なる位置に表示された表示画像を選択する選択操作や、操作を確定させる確定操作に対応付けてもよい。
画像表示部20は、外景を透過し、外景とともに視認できるように表示画像を表示領域310に表示する。表示制御部153は、指示位置を示すポインター301を画像表示部20により表示領域310に表示させる。トラックパッド14及び操作制御部149は、第1操作であるトラックパッド14の操作面に対する操作を検出し、操作に対応する操作データを出力する。また、6軸センサー235及び検出制御部151は、第2操作としての使用者の頭部の傾きを検出し、検出した頭部の傾きに応じた操作データを出力する。表示制御部153は、検出部が検出する第1操作に応じてポインター301の位置を移動させる。また、表示制御部153は、第1操作に応じたポインター301の位置の移動後に、検出制御部151が検出する第2操作に応じて、ポインター301の位置を、第1操作に応じたポインター301の位置の移動とは異なる態様で移動させる。
従って、ポインター301の移動の態様が増えるため、ポインター301を操作する場合の操作性を向上させ、HMD100の使い勝手を向上させることができる。
従って、使用者の動作によってポインター301の位置を移動させることができる。
表示制御部163は、カメラ61の撮像画像に基づき、ポインター301に重なって視認される対象物体を特定する第1の動作モードを備える。また、表示制御部163は、表示領域310に表示される複数の表示画像からポインター301の位置に対応する表示画像を特定する第2の動作モードを備える。表示制御部163は、第1の動作モードと第2の動作モードとを切り替えて実行する。
従って、ポインター301の移動により対象物体を特定することも、表示画像を特定することもできる。
従って、ポインター301により特定する対象が対象物体であるか表示画像であるかに応じてポインター301の位置の移動の態様を変更することができる。
従って、第1の動作モードの実行中は、使用者が第2操作により頭部を傾けても、ポインター301の位置を、外景を基準として移動させることができる。また、第2の動作モードの実行中は、ポインター301の位置を、表示画像を基準として移動させることができる。
従って、第2操作よりも移動量が大きい第1操作によりポインター301を移動させた後に、第1操作よりも移動量が小さい第2操作によりポインター301を移動させることができる。従って、第1操作によりポインター301を移動させ、その後、第2操作によりポインター301の位置を調整することができる。
表示制御部153は、ビーコン受信部119が検出する対象物体までの距離に応じて、ポインター301を異なる態様で移動させる。
従って、ポインター301の操作の操作性を向上させ、HMD100の使い勝手を向上させることができる。
表示制御部153は、第1操作によりポインター301を移動させる移動量を、第2操作によりポインター301を移動させる移動量よりも小さくする。
従って、対象物体までの距離がしきい値よりも大きい場合、ポインター301の移動量を小さくして、第1操作によりポインター301の位置が大きく移動してしまうことを防止することができる。
例えば、上述した実施形態では、制御装置10が画像表示部20と有線接続される構成を例示したが、本発明はこれに限定されず、制御装置10に対して画像表示部20が無線接続される構成であってもよい。この場合の無線通信方式は通信部117が対応する通信方式として例示した方式を採用してもよいし、その他の通信方式であってもよい。
また、制御部150は、HMD100の動作モードが第1の動作モードである場合に、動作モードが第1の動作モードであることを示す画像やメッセージを生成し、生成した画像やメッセージを画像表示部20により表示させる。また、制御部150は、HMD100の動作モードが第2の動作モードである場合に、動作モードが第2の動作モードであることを示す画像やメッセージを生成し、生成した画像やメッセージを画像表示部20により表示させる。
さらに、本発明の光学素子は、ハーフミラー261、281を有する右導光板26、左導光板28に限定されず、画像光を使用者の眼に入射させる光学部品であればよく、具体的には、回折格子、プリズム、ホログラフィー表示部を用いてもよい。
Claims (7)
- 使用者の頭部に装着され、表示画像を外景とともに視認可能に表示領域に表示する表示部と、
指示位置を示すマーカーを前記表示部により前記表示領域に表示させる表示制御部と、
操作を検出する検出部と、
前記外景を撮像する撮像部と、
前記表示部の傾きを検出する傾き検出部と、を備え、
前記表示制御部は、
前記撮像部の撮像画像に基づき、前記マーカーに重なって視認される対象物体を特定する第1の動作モードと、前記表示領域に表示される複数の前記表示画像から前記マーカーの位置に対応する前記表示画像を特定する第2の動作モードと、を切り替えて実行し、
前記第1の動作モードを実行しているときに前記検出部により第1操作又は前記第1操作とは異なる第2操作が検出されると、検出された前記第1操作又は前記第2操作の検出時間に応じて、前記対象物体を基準として前記マーカーを移動させ、
前記第2の動作モードを実行しているときに前記検出部により前記第1操作又は前記第2操作が検出されると、検出された前記第1操作又は前記第2操作の検出時間に応じて、前記表示部の前記表示領域の傾きに合わせて前記マーカーを移動させ、
前記第1操作及び前記第2操作の検出時間に対応する前記マーカーの移動量は、前記第2操作よりも前記第1操作が大きい頭部装着型表示装置。 - 前記表示制御部は、前記第1の動作モードの実行中に、前記検出部により前記第1操作又は前記第2操作が検出された場合、前記表示部が表示する前記表示画像の傾きによらず、前記マーカーを水平に移動させ、
前記第2の動作モードを実行中に、前記検出部により前記第1操作又は前記第2操作が検出された場合、前記表示部が表示する前記表示画像の傾きに合わせて前記マーカーを移動させる請求項1記載の頭部装着型表示装置。 - 前記使用者が前記表示部を透過して視認する対象物体までの距離を検出する距離検出部を備え、
前記表示制御部は、前記距離検出部が検出する前記対象物体までの距離がしきい値よりも大きい場合に、前記検出部が検出した操作を前記第1操作と判定し、前記距離検出部が検出する前記対象物体までの距離がしきい値以下である場合に、前記検出部が検出した操作を前記第2操作と判定する請求項1又は2に記載の頭部装着型表示装置。 - 前記検出部は、前記使用者の動作を前記第1操作又は前記第2操作として検出する請求項1から3のいずれか一項に記載の頭部装着型表示装置。
- 前記使用者の操作を受け付ける操作部を備え、
前記検出部は、前記操作部が受け付けた操作を前記第1操作として検出し、前記使用者の前記頭部の動きを前記第2操作として検出する請求項1から3のいずれか一項に記載の頭部装着型表示装置。 - 使用者の頭部に装着され、表示画像を外景とともに視認可能に表示領域に表示する表示部と、指示位置を示すマーカーを前記表示部により前記表示領域に表示させる表示制御部と、操作を検出する検出部と、前記外景を撮像する撮像部と、前記表示部の傾きを検出する傾き検出部と、を備える頭部装着型表示装置に実装されるコンピューターに実行させるプログラムであって、
コンピューターに、
前記撮像部の撮像画像に基づき、前記マーカーに重なって視認される対象物体を特定する第1の動作モードと、前記表示領域に表示される複数の前記表示画像から前記マーカーの位置に対応する前記表示画像を特定する第2の動作モードと、を切り替えて実行させ、
前記第1の動作モードを実行しているときに前記検出部により第1操作又は前記第1操作とは異なる第2操作が検出されると、検出された前記第1操作又は前記第2操作の検出時間に応じて、前記対象物体を基準として前記マーカーを移動させ、
前記第2の動作モードを実行しているときに前記検出部により前記第1操作又は前記第2操作が検出されると、検出された前記第1操作又は前記第2操作の検出時間に応じて、前記表示部の前記表示領域の傾きに合わせて前記マーカーを移動させ、
前記第1操作及び前記第2操作の検出時間に対応する前記マーカーの移動量は、前記第2操作よりも前記第1操作が大きいプログラム。 - 使用者の頭部に装着され、表示画像を外景とともに視認可能に表示領域に表示する表示部と、指示位置を示すマーカーを前記表示部により前記表示領域に表示させる表示制御部と、操作を検出する検出部と、前記外景を撮像する撮像部と、前記表示部の傾きを検出する傾き検出部と、を備える頭部装着型表示装置の制御方法であって、
前記撮像部の撮像画像に基づき、前記マーカーに重なって視認される対象物体を特定する第1の動作モードと、前記表示領域に表示される複数の前記表示画像から前記マーカーの位置に対応する前記表示画像を特定する第2の動作モードと、を切り替えて実行し、
前記第1の動作モードを実行しているときに前記検出部により第1操作又は前記第1操作とは異なる第2操作が検出されると、検出された前記第1操作又は前記第2操作の検出時間に応じて、前記対象物体を基準として前記マーカーを移動させ、
前記第2の動作モードを実行しているときに前記検出部により前記第1操作又は前記第2操作が検出されると、検出された前記第1操作又は前記第2操作の検出時間に応じて、前記表示部の前記表示領域の傾きに合わせて前記マーカーを移動させ、
前記第1操作及び前記第2操作の検出時間に対応する前記マーカーの移動量は、前記第2操作よりも前記第1操作が大きい頭部装着型表示装置の制御方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016232373A JP6932917B2 (ja) | 2016-11-30 | 2016-11-30 | 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法 |
US15/801,711 US10474226B2 (en) | 2016-11-30 | 2017-11-02 | Head-mounted display device, computer program, and control method for head-mounted display device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016232373A JP6932917B2 (ja) | 2016-11-30 | 2016-11-30 | 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018091882A JP2018091882A (ja) | 2018-06-14 |
JP6932917B2 true JP6932917B2 (ja) | 2021-09-08 |
Family
ID=62565927
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016232373A Active JP6932917B2 (ja) | 2016-11-30 | 2016-11-30 | 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6932917B2 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111198608B (zh) * | 2018-11-16 | 2021-06-22 | 广东虚拟现实科技有限公司 | 信息提示方法、装置、终端设备及计算机可读取存储介质 |
JP7222663B2 (ja) * | 2018-11-05 | 2023-02-15 | 株式会社コーエーテクモゲームス | プログラム、情報処理方法、及び情報処理装置 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3822357B2 (ja) * | 1998-02-09 | 2006-09-20 | 株式会社東芝 | マルチモーダル入出力装置のインタフェース装置及びその方法 |
JP3487237B2 (ja) * | 1999-08-27 | 2004-01-13 | 日本電気株式会社 | ポインティング装置とそれを用いたコンピュータシステム |
US6791529B2 (en) * | 2001-12-13 | 2004-09-14 | Koninklijke Philips Electronics N.V. | UI with graphics-assisted voice control system |
JP2004233909A (ja) * | 2003-01-31 | 2004-08-19 | Nikon Corp | ヘッドマウントディスプレイ |
JP6155622B2 (ja) * | 2012-12-18 | 2017-07-05 | セイコーエプソン株式会社 | 表示装置、頭部装着型表示装置、表示装置の制御方法、および、頭部装着型表示装置の制御方法 |
JP6380091B2 (ja) * | 2014-12-26 | 2018-08-29 | セイコーエプソン株式会社 | 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、コンピュータープログラム |
-
2016
- 2016-11-30 JP JP2016232373A patent/JP6932917B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018091882A (ja) | 2018-06-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11310483B2 (en) | Display apparatus and method for controlling display apparatus | |
US10474226B2 (en) | Head-mounted display device, computer program, and control method for head-mounted display device | |
US10948974B2 (en) | Head-mounted display device, program, and method for controlling head-mounted display device | |
US10635182B2 (en) | Head mounted display device and control method for head mounted display device | |
US20180259775A1 (en) | Transmission-type display device, display control method, and computer program | |
US11216083B2 (en) | Display system that switches into an operation acceptable mode according to movement detected | |
US20170289533A1 (en) | Head mounted display, control method thereof, and computer program | |
US20230251490A1 (en) | Head-mounted type display device and method of controlling head-mounted type display device | |
JP2019128693A (ja) | 頭部装着型表示装置、及び頭部装着型表示装置の制御方法 | |
JP2018142857A (ja) | 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法 | |
JP2018124721A (ja) | 頭部装着型表示装置、及び頭部装着型表示装置の制御方法 | |
JP6996115B2 (ja) | 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法 | |
JP2018084886A (ja) | 頭部装着型表示装置、頭部装着型表示装置の制御方法、コンピュータープログラム | |
JP6776578B2 (ja) | 入力装置、入力方法、コンピュータープログラム | |
JP2018022426A (ja) | 表示装置、頭部装着型表示装置、及び、表示装置の制御方法 | |
JP6932917B2 (ja) | 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法 | |
JP2017146726A (ja) | 移動支援装置、及び、移動支援方法 | |
JP2018042004A (ja) | 表示装置、頭部装着型表示装置、及び、表示装置の制御方法 | |
JP2017182460A (ja) | 頭部装着型表示装置、頭部装着型表示装置の制御方法、コンピュータープログラム | |
JP2017134630A (ja) | 表示装置、表示装置の制御方法、及び、プログラム | |
JP6790769B2 (ja) | 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法 | |
JP2017182413A (ja) | 頭部装着型表示装置およびその制御方法、並びにコンピュータープログラム | |
JP6631299B2 (ja) | 表示装置、表示装置の制御方法、及び、プログラム | |
JP6693160B2 (ja) | 表示装置、表示装置の制御方法、及び、プログラム | |
JP2018067160A (ja) | 頭部装着型表示装置およびその制御方法、並びにコンピュータープログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191018 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201027 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201228 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210126 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210329 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210420 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210618 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210720 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210802 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6932917 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |