JP6399692B2 - ヘッドマウントディスプレイ、画像表示方法及びプログラム - Google Patents
ヘッドマウントディスプレイ、画像表示方法及びプログラム Download PDFInfo
- Publication number
- JP6399692B2 JP6399692B2 JP2014212248A JP2014212248A JP6399692B2 JP 6399692 B2 JP6399692 B2 JP 6399692B2 JP 2014212248 A JP2014212248 A JP 2014212248A JP 2014212248 A JP2014212248 A JP 2014212248A JP 6399692 B2 JP6399692 B2 JP 6399692B2
- Authority
- JP
- Japan
- Prior art keywords
- display
- wearer
- image
- walking
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
このように、ヘッドマウントディスプレイの画像表示としてインフォメーションベルトを配置することで、様々な情報を効率よく表示可能とし、ユーザは簡単な操作で必要な情報を選択して表示することができる。
表示された画像が装着者の眼で認識可能な表示部と、
装着者の周囲の仮想空間に配置された複数の表示オブジェクトを描画し、表示部に表示させる画像描画部と、
装着者の動きを検出するモーションセンサと、
モーションセンサの出力に基づいて、装着者が歩行中であることを検出したとき、表示部に表示される表示オブジェクトを、仮想空間の特定の範囲に配置された表示オブジェクトに固定し、装着者が歩行中でないことを検出したとき、仮想空間における複数の表示オブジェクトの配置座標が固定されるように、モーションセンサが検出した装着者の頭部の動きに連動して表示部に表示される表示オブジェクトを変更するコントローラとを備える。
装着者の眼で認識可能な画像を表示するヘッドマウントディスプレイを使用して画像表示を行う画像表示方法において、
装着者の周囲の仮想空間に配置された複数の表示オブジェクトを描画し、描画した画像をヘッドマウントディスプレイで表示させる描画処理ステップと、
装着者の動きを検出する動き検出処理ステップと、
動き検出処理で装着者が歩行中であることを検出したとき、表示部に表示される表示オブジェクトを、仮想空間の特定の範囲に配置された表示オブジェクトに固定し、装着者が歩行中でないことを検出したとき、仮想空間における複数の表示オブジェクトの配置座標が固定されるように、動き検出処理ステップで検出した装着者の頭部の動きに連動して表示部に表示される表示オブジェクトを変更する制御処理ステップと、を含む。
例えば、装着者が歩行中に頭部を左又は右に振ったとしても、表示画像が変化せず、歩行による装着者の頭部の動きが、表示範囲の選択状況に影響を与えないようにすることができる。このため、歩行による装着者の頭部の動きに連動して、表示画像の表示位置が変化することがなく、歩行中であっても装着者にとって常に適切な表示形態になる。
[1.ヘッドマウントディスプレイの全体構成例]
図1は、ヘッドマウントディスプレイの例を示す。
ヘッドマウントディスプレイ10は、例えば眼鏡型に構成され、フレーム11によりユーザ(装着者)の頭部に装着される。以下の説明では、ユーザを表す言葉として「装着者」という用語を使うこととする。フレーム11の正面には、左ハーフミラー12と右ハーフミラー13とが取り付けられている。左ハーフミラー12の中央には、画像を表示する左表示部14が配置され、右ハーフミラー13の中央には、画像を表示する右表示部15が配置されている。
また、ヘッドマウントディスプレイ10には、ケーブル27を介してアダプタ20が取り付けられる。アダプタ20は、表示部14,15が表示する画像の処理を行う。
図2は、ヘッドマウントディスプレイ10とアダプタ20の内部構成例を示す。アダプタ20は、コントローラ21と画像描画部22と画像メモリ23と操作部24と画像解析部25と動き解析部26とを備える。コントローラ21は、画像描画部22における画像の描画を制御する。画像描画部22は、画像メモリ23に記憶されている表示オブジェクトの画像データから、必要な画像データを取り出す。そして、画像描画部22は、取り出した画像データから、表示用の画像を描画する処理を行う。そして、画像描画部22での描画処理で得られた画像データが、左表示部14及び右表示部15に供給される。
また、コントローラ21には、操作部24が接続される。そして、この操作部24が受け付けた操作に基づいて、コントローラ21は、画像描画部22に対して対応する種類の画像の描画を指示する。
動き解析部26が検出した動きの解析データは、コントローラ21に供給される。コントローラ21は、これらの動き解析データに基づいて、表示画像の表示範囲の切り替えや変更などの指示を、画像描画部22に対して行う。
そして、画像解析部25は、判別したジェスチャーに基づいて、表示画像の座標を変更するコマンドを作成し、その作成したコマンドをコントローラ21に供給する。コントローラ21では、供給されるコマンドに基づいて、表示画像の座標変更の処理を行う。
図3は、ヘッドマウントディスプレイ10に取り付けられたカメラ17が撮影した画像から、ジェスチャー解析を行い、そのジェスチャー解析結果に基づいて表示画像の座標を制御する処理の流れを示す機能ブロックである。図3に示す画像解析部25内の各処理部251〜257は、ハードウェアで構成されるようにしてもよいが、ソフトウェアの演算処理によって同様の処理を行うようにしてもよい。
フレーム取得部251が新しいフレームの画像データを取得すると、取得した画像データが指先座標検出部252に供給される。指先座標検出部252は、画像に含まれる指先の座標位置を検出する。画像に含まれる指先は、例えば画像中の手指の色(肌色)の領域を抽出すると共に、その抽出した手指の色の領域の形状が、手指の形状であるとき、指先などを検出する。検出した座標位置のデータは、座標履歴記憶部253に供給され、記憶される。そして、ジェスチャー解析部254は、座標履歴記憶部253に記憶された過去の一定期間(例えば1秒から数秒程度の期間)の座標履歴を読み出し、一定期間内の座標変化から、ジェスチャーを判別する。
座標変換部256で変換された座標データは表示座標設定部257に供給され、この表示座標設定部257で表示座標の変更を指示設定するコマンドが作成される。この表示座標設定部257で作成されたコマンドはコントローラ21に供給される。コントローラ21は、座標の変更を指示するコマンドに基づいて、画像描画部22で描画させる表示オブジェクトの座標の変更などを指示する。
以上説明したように、画像解析部25では、フレーム取得部251での1フレームごとの画像の取得から表示座標設定部257でのコマンドの出力処理が繰り返し実行される。
図4は、動き解析部26が行う、装着者の頭部の動きによる移動量の計算方法を示すフローチャートである。
まず、動き解析部26は、モーションセンサ16内のジャイロスコープが出力する角加速度のデータを取得する(ステップS11)。ここで取得される角加速度は、ジャイロスコープが検出する3軸(x軸、y軸、z軸)の内のx軸とy軸の2軸の角加速度である。なお、ここでジャイロスコープが検出する3軸とは、例えば図1に示すように、表示部14,15に表示される画像の水平方向x軸、垂直方向y軸、及び表示部14,15に表示される画像と直交する方向であるz軸をいう。
x軸方向相対移動量=x軸移動角度*30
y軸方向相対移動量=y軸移動角度*30
なお、これらの式の各軸移動角度に乗算される値30は、ジャイロスコープの特性と想定している画面サイズ(装着者から画面までの距離)で決まるパラメータであり、1つの例である。
このようにして得られた相対移動量のデータは、動き解析部26からコントローラ21に伝送される。コントローラ21は、表示画像の表示範囲の移動が必要であると判断すると、この相対移動量のデータを、画像描画部22に送る。そして、画像描画部22が描画する範囲、つまり表示部14,15に表示される範囲を変更する。
図5は、動き解析部26が行う、装着者の歩行検知処理の例を示すフローチャートである。
まず、動き解析部26は、モーションセンサ16内の加速度センサが出力する加速度のデータを取得する(ステップS21)。ここでは、加速度センサが検出する3軸(x軸、y軸、z軸)の内で、地面と垂直なy軸の加速度データを取得する。そして、動き解析部26は、加速度値から装着者の移動平均値を算出する(ステップS22)。
このようにして、動き解析部26では、モーションセンサ16の出力から装着者が歩行中か否かを判別し、その判別結果に基づいて歩行検知フラグを「true」又は「false」の値とする処理が行われる。この歩行検知フラグは、ヘッドマウントディスプレイ10がインフォメーションベルトを表示する際に使用される。
図6は、ヘッドマウントディスプレイ10が、装着者の周囲に仮想的に配置した表示オブジェクトを表示する例を示す。
ここでは、ヘッドマウントディスプレイ10の表示部14,15が表示する表示オブジェクトで、装着者の水平方向の周囲を360°囲むように、仮想的なベルト100を設定する。この円形のベルト100がインフォメーションベルトである。
例えば、装着者が正面を向いたときには、インフォメーションベルト100上の正面の表示オブジェクト101が表示され、装着者が左方向を向いたときには、インフォメーションベルト100上の左脇の表示オブジェクト102〜107などが表示されるようになる。これらの表示を行うために、動き解析部26では、図4のフローチャートで説明した移動量の計算処理が行われる。但し、装着者が歩行中である場合には、コントローラ21は、この頭部の動きによる表示範囲の変更を行わないように制御する。この歩行中の処理の詳細は後述する。
図7は、装着者の頭部の動きに連動して、インフォメーションベルト100の表示座標が変化する処理の例を示すフローチャートである。
コントローラ21は、図4のフローチャートで説明した相対移動量のデータを取得する(ステップS41)。このとき、コントローラ21は、仮想オブジェクトリスト200内のそれぞれの表示オブジェクトの座標データに、ステップS41で取得した相対移動量を加算する(ステップS42)。
この仮想オブジェクトリスト200内のそれぞれの表示オブジェクトの座標データが変更されることで、コントローラ21の指示で画像描画部22が描画する画像についても、対応した座標位置に配置された表示オブジェクトを描画した画像になる。
なお、このインフォメーションベルト内の表示範囲を移動させる処理は、図5のフローチャートで説明した歩行検知フラグが「false」の値のときだけ行われ、歩行検知フラグが「true」の場合には行われない。この歩行検知フラグによる制御例は、次の図8のフローチャートで説明する。
図8は、ヘッドマウントディスプレイ10がインフォメーションベルト100を表示した状態でのコントローラ21による制御例を示すフローチャートである。
まず、コントローラ21は、モーションセンサ16の出力による動きの解析を動き解析部26で実行させ、その解析結果を取得する(ステップS31)。そして、コントローラ21は、歩行検知フラグが「true」の値か、あるいは「false」の値であるかを判断する(ステップS32)。
図9は、歩行時のインフォメーションベルト100の表示イメージを示す。
図9の左側に示すように、装着者が立ち止まっている場合には、インフォメーションベルト100が周囲の空間に対して固定された状態になる。つまり、仮想空間の表示オブジェクトの配置座標が固定された状態である。このときには、装着者の頭部の回転やジェスチャーでの指示に基づいて、インフォメーションベルト100の表示を行う座標位置が変化して、ヘッドマウントディスプレイ10は、任意の位置に配置された表示オブジェクトを表示することができる。なお、装着者が立ち止まっている状態での頭部の回転には、体の向きを固定した状態で頭部だけを回転させる場合と、体と頭部が一体となって向きを変えて回転させる場合とがあるが、いずれの状態での頭部の回転があった場合でも、その回転に応じてインフォメーションベルト100の表示を行う座標位置が変化して、表示範囲が変化する。
なお、装着者が歩行している間には、インフォメーションベルト100の座標位置を固定して、ヘッドマウントディスプレイ10が表示する表示オブジェクトとして、例えば歩行中の装着者を支援する案内画像を表示するようにしてもよい。この歩行中の装着者を支援する案内画像としては、歩行中の箇所の周囲の地図や、周囲の状況などを説明する画像などが考えられる。
図10は、ジェスチャー判定を行う場合の例を示すフローチャートである。
コントローラ21は、画像解析部25内のジェスチャー解析部254(図3)でジェスチャーを判別したか否かを判断する(ステップS51)。ここで、ジェスチャーを判別しない場合には、コントローラ21は、ジェスチャーを判定するまで待機する。そして、コントローラ21は、判別したジェスチャーが予め決められた特定種類のジェスチャーか否かを判断する(ステップS52)。ここで、予め決められた特定種類のジェスチャーである場合には、コントローラ21は、そのジェスチャーの指示の実行を許可する(ステップS53)。また、ステップS52の判断で、予め決められた特定種類のジェスチャーでない場合には、コントローラ21は、ステップS51の判断に戻る。
図11〜図13は、装着者の手指の動きによるジェスチャーで、インフォメーションベルト100内の表示オブジェクトの操作を行う例を示す。図11〜図13は、いずれも装着者の眼から見た状態を示す。なお、図11〜図13の例では、説明のために手指を手前の位置に示すが、画像の表示状態によっては、装着者から見て、表示画像が手指よりも手前に見える場合がある。
この例では、装着者の視野範囲には、表示オブジェクト121以外のその他の表示オブジェクトも配置されているが、表示オブジェクト121を除く表示オブジェクトは、例えば輝度を落とした半透明状態で表示される。
この状態で、例えば装着者は、5本の指を伸ばした状態の手指f1を水平方向又は垂直方向に動かすジェスチャーを行ったとする。
このとき、その手指f1の動きM1に連動して、インフォメーションベルト100全体の表示座標が変化する。例えば、手指f1を水平に動かしたとき、その水平の手指f1の動きに連動して、水平方向にインフォメーションベルト100全体の表示座標が変化する。
ここでは、表示オブジェクトを移動させる例としたが、例えばボタン121aが押されるジェスチャーにより、その表示オブジェクトが手前に表示されたり、あるいは、ボタンが押された際に、該当する表示オブジェクトがインフォメーションベルト100から消去される等のその他の処理が行われるようにしてもよい。
なお、各図に示すヘッドマウントディスプレイの形状や構成は、一例を示すものであり、本発明は、各図に示すヘッドマウントディスプレイとは異なる形状や構成のものに適用してもよい。例えば、図1に示すヘッドマウントディスプレイ10では、左右の眼に対応した2つの表示部14,15を備える構成としたが、1つの表示部だけを備えたヘッドマウントディスプレイに本発明を適用してもよい。
また、表示部として、画像を表示する表示パネルを備えた表示部とは異なるものを適用してもよい。例えば、装着者の眼の網膜上に、画像を投射する投射型の表示部を備えたヘッドマウントディスプレイに適用してもよい。
Claims (7)
- 表示された画像が装着者の眼で認識可能な表示部と、
前記装着者の周囲の仮想空間に配置された複数の表示オブジェクトを描画し、前記表示部に表示させる画像描画部と、
前記装着者の動きを検出するモーションセンサと、
前記モーションセンサの出力に基づいて、前記装着者が歩行中であることを検出したとき、前記表示部に表示される表示オブジェクトを、前記仮想空間の特定の範囲に配置された表示オブジェクトに固定し、前記装着者が歩行中でないことを検出したとき、前記仮想空間における前記複数の表示オブジェクトの配置座標が固定されるように、前記モーションセンサが検出した前記装着者の頭部の動きに連動して前記表示部に表示される表示オブジェクトを変更するコントローラと、
を備えるヘッドマウントディスプレイ。 - 前記表示部は、外界光が透過した状態で画像を表示する
請求項1に記載のヘッドマウントディスプレイ。 - さらに、前記装着者の周囲を撮影するカメラと、
前記カメラが撮影した画像から、前記装着者の手又は指の動きによるジェスチャーを検出する画像解析部と、を備え、
前記コントローラは、前記画像解析部が検出したジェスチャーに応じて、そのジェスチャーに割り当てられた機能を実行することで、記表示部に表示される表示オブジェクトの選択又は変更を指示すると共に、前記モーションセンサの出力に基づいて、前記装着者が歩行中であることを検出したとき、前記ジェスチャーによる表示オブジェクトの選択又は変更を制限する
請求項1又は2に記載のヘッドマウントディスプレイ。 - 前記コントローラは、前記画像の選択又は変更を制限する処理として、前記画像解析部が検出したジェスチャーの内で、特定のジェスチャーに割り当てられた機能だけを実行し、特定のジェスチャー以外のジェスチャーに割り当てられた機能を実行しないようにした
請求項3に記載のヘッドマウントディスプレイ。 - 前記コントローラは、前記装着者が歩行中であることを検出したとき、前記表示部に表示される表示オブジェクトは、歩行中の前記装着者を支援する案内画像の表示オブジェクトとした
請求項1〜4のいずれか1項に記載のヘッドマウントディスプレイ。 - 装着者の眼で認識可能な画像を表示するヘッドマウントディスプレイを使用して画像表示を行う画像表示方法において、
前記装着者の周囲の仮想空間に配置された複数の表示オブジェクトを描画し、描画した画像を前記ヘッドマウントディスプレイで表示させる描画処理ステップと、
前記装着者の動きを検出する動き検出処理ステップと、
前記動き検出処理で前記装着者が歩行中であることを検出したとき、表示部に表示される表示オブジェクトを、前記仮想空間の特定の範囲に配置された表示オブジェクトに固定し、前記装着者が歩行中でないことを検出したとき、前記仮想空間における前記複数の表示オブジェクトの配置座標が固定されるように、前記動き検出処理ステップで検出した前記装着者の頭部の動きに連動して前記表示部に表示される表示オブジェクトを変更する制御処理ステップと、
を含む画像表示方法。 - 装着者の眼で認識可能な画像を表示するヘッドマウントディスプレイに、画像を表示させる処理を情報処理装置に実行させるプログラムであって、
前記装着者の周囲の仮想空間に配置された複数の表示オブジェクトを描画し、描画した画像を前記ヘッドマウントディスプレイで表示させる手順と、
前記装着者の動きを検出する手順と、
前記動きを検出する手順で前記装着者が歩行中であることを検出したとき、表示部に表示される表示オブジェクトを、前記仮想空間の特定の範囲に配置された表示オブジェクトに固定し、前記装着者が歩行中でないことを検出したとき、前記仮想空間における前記複数の表示オブジェクトの配置座標が固定されるように、前記動きを検出する手順で検出した前記装着者の頭部の動きに連動して前記表示部に表示される表示オブジェクトを変更する手順と、
を情報処理装置に実行させるプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014212248A JP6399692B2 (ja) | 2014-10-17 | 2014-10-17 | ヘッドマウントディスプレイ、画像表示方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014212248A JP6399692B2 (ja) | 2014-10-17 | 2014-10-17 | ヘッドマウントディスプレイ、画像表示方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016082411A JP2016082411A (ja) | 2016-05-16 |
JP6399692B2 true JP6399692B2 (ja) | 2018-10-03 |
Family
ID=55959223
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014212248A Active JP6399692B2 (ja) | 2014-10-17 | 2014-10-17 | ヘッドマウントディスプレイ、画像表示方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6399692B2 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6207685B1 (ja) * | 2016-07-25 | 2017-10-04 | 株式会社コロプラ | 表示制御方法および当該表示制御方法をコンピュータに実行させるためのプログラム |
US9971157B2 (en) | 2016-07-25 | 2018-05-15 | Colopl, Inc. | Display control method and system for executing the display control method |
US10665206B2 (en) | 2018-07-30 | 2020-05-26 | Honeywell International Inc. | Method and system for user-related multi-screen solution for augmented reality for use in performing maintenance |
WO2020059028A1 (ja) * | 2018-09-18 | 2020-03-26 | マクセル株式会社 | ヘッドマウントディスプレイ及びオブジェクトの表示方法 |
KR20200039195A (ko) * | 2018-10-05 | 2020-04-16 | 최해용 | 접이식 가상현실 디스플레이 장치 |
WO2020166582A1 (ja) | 2019-02-15 | 2020-08-20 | 株式会社Jvcケンウッド | 画像調整システム、画像調整装置、及び画像調整方法 |
JP7247636B2 (ja) * | 2019-02-15 | 2023-03-29 | 株式会社Jvcケンウッド | 画像調整システム、画像調整装置、及び画像調整方法 |
WO2023026798A1 (ja) * | 2021-08-23 | 2023-03-02 | 株式会社Nttドコモ | 表示制御装置 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090040233A1 (en) * | 2004-06-10 | 2009-02-12 | Kakuya Yamamoto | Wearable Type Information Presentation Device |
JP5036177B2 (ja) * | 2005-12-12 | 2012-09-26 | オリンパス株式会社 | 情報表示装置 |
JP5228305B2 (ja) * | 2006-09-08 | 2013-07-03 | ソニー株式会社 | 表示装置、表示方法 |
JP2011091789A (ja) * | 2009-09-24 | 2011-05-06 | Brother Industries Ltd | ヘッドマウントディスプレイ |
JP2013025220A (ja) * | 2011-07-25 | 2013-02-04 | Nec Corp | 安全確保システム、装置、方法及びプログラム |
JP6051522B2 (ja) * | 2011-12-28 | 2016-12-27 | ブラザー工業株式会社 | ヘッドマウントディスプレイ |
JP5990998B2 (ja) * | 2012-04-23 | 2016-09-14 | セイコーエプソン株式会社 | 虚像表示装置 |
JP2014106445A (ja) * | 2012-11-29 | 2014-06-09 | Toshiba Corp | 電子機器および表示制御方法 |
CN104246864B (zh) * | 2013-02-22 | 2016-06-29 | 索尼公司 | 头戴式显示器和图像显示装置 |
-
2014
- 2014-10-17 JP JP2014212248A patent/JP6399692B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016082411A (ja) | 2016-05-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6399692B2 (ja) | ヘッドマウントディスプレイ、画像表示方法及びプログラム | |
US10664950B2 (en) | Information processing method and system for executing the information processing method | |
US10438411B2 (en) | Display control method for displaying a virtual reality menu and system for executing the display control method | |
US11835727B2 (en) | Information processing apparatus and information processing method for controlling gesture operations based on postures of user | |
JP5869712B1 (ja) | 没入型仮想空間に実空間のユーザの周辺環境を提示するためのヘッドマウント・ディスプレイ・システムおよびコンピュータ・プログラム | |
JP2018072992A (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるプログラム | |
JP6220937B1 (ja) | 情報処理方法、当該情報処理方法をコンピュータに実行させるためのプログラム及びコンピュータ | |
CN108369451B (zh) | 信息处理装置、信息处理方法及计算机可读存储介质 | |
WO2017122270A1 (ja) | 画像表示装置 | |
KR20130018004A (ko) | 공간 제스처 인식을 위한 신체 트래킹 방법 및 시스템 | |
JP6227732B1 (ja) | 仮想空間において入力を支援するための方法および装置、ならびに当該方法をコンピュータに実行させるプログラム | |
JP6446465B2 (ja) | 入出力装置、入出力プログラム、および入出力方法 | |
JP2019040303A (ja) | ヘッドマウントデバイスを介して仮想空間をユーザに提供するための方法、プログラム及びコンピュータ | |
JP2018049629A (ja) | 仮想空間において入力を支援するための方法および装置、ならびに当該方法をコンピュータに実行させるプログラム | |
JP6535699B2 (ja) | 情報処理方法、情報処理プログラム及び情報処理装置 | |
KR20180060403A (ko) | 영상 기반의 드론 제어장치 | |
JP6966336B2 (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP2020154792A (ja) | 画像表示システム、画像表示プログラム、表示制御装置、および画像表示方法 | |
JP7300569B2 (ja) | 情報処理装置、情報処理方法およびプログラム | |
JP2018029969A (ja) | 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP7492497B2 (ja) | プログラム、情報処理方法、及び情報処理装置 | |
WO2022208612A1 (ja) | ウェアラブル端末装置、プログラムおよび表示方法 | |
JP6941130B2 (ja) | 情報処理方法、情報処理プログラム及び情報処理装置 | |
JP6876639B2 (ja) | 表示制御装置、表示制御方法及びプログラム | |
WO2022208600A1 (ja) | ウェアラブル端末装置、プログラムおよび表示方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171003 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180823 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180828 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180903 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6399692 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |