JP7287172B2 - 表示制御装置、表示制御方法、及びプログラム - Google Patents
表示制御装置、表示制御方法、及びプログラム Download PDFInfo
- Publication number
- JP7287172B2 JP7287172B2 JP2019144323A JP2019144323A JP7287172B2 JP 7287172 B2 JP7287172 B2 JP 7287172B2 JP 2019144323 A JP2019144323 A JP 2019144323A JP 2019144323 A JP2019144323 A JP 2019144323A JP 7287172 B2 JP7287172 B2 JP 7287172B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- image
- user
- camera
- virtual camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
Description
まず、第1の実施形態について説明する。図1は、第1の実施形態による画像表示システム1の構成の例を示すブロック図である。画像表示システム1は、例えば、表示制御装置10と、画像生成装置20と、端末装置30とを備える。表示制御装置10と、画像生成装置20と、端末装置30とは相互に通信可能に接続される。この図の例では、画像表示システム1を構成する装置群(表示制御装置10、画像生成装置20、及び端末装置30)の各々が直接に接続される例を示しているが、画像表示システム1を構成する装置群の各々は、インターネットなどの通信ネットワークを介して接続されていてもよい。また、表示制御装置10、及び画像生成装置20は、パーソナルコンピューター、又は、サーバ装置等の情報処理装置である。端末装置30は、パーソナルコンピューター、タブレット、又はスマートフォン等の端末装置である。
色画像は、各画素に、被写体の色に関する情報が格納された画像である。色に関する情報は、例えばRGB値である。
オブジェクトID画像は、各画素に、被写体に対応するオブジェクトを一意に識別するオブジェクトIDが格納された画像である。
オブジェクトIDは各オブジェクトに対してユニーク割り振られた整数値である。
注意閾値情報は、各オブジェクトの注意閾値を示す情報である。
ステップS10:
画像生成部202は、仮想空間情報と仮想カメラ情報とに基づき、各オブジェクトの顕著性を二次元平面に投影した画像として顕著性マップを生成する。
ステップS11:
画像生成装置20は、通信部200を介して、色画像と共に、顕著性マップを表示制御装置10に送信する。
ステップS12:
表示制御装置10は、通信部100を介して、画像情報取得部101により色画像と共に当該顕著性マップを取得する。画像情報取得部101は、取得した当該顕著性マップをユーザ注視点推定部103に出力する。
この場合、上述のステップS12において、画像情報取得部101は、通信部100を介して取得した第1顕著性マップを、顕著性マップ生成部102に出力する。顕著性マップ生成部102は第1顕著性マップと、第2顕著性マップとを合成する。当該合成の方法は、例えば乗算であってもよい。この場合、顕著性マップ生成部102は、双方のマップにおいて同じ位置にある画素に対応付けられている顕著性の値を乗算した値を、当該画素に対応する顕著性を示す値とすることで新たな顕著性マップを生成する。
図3は、第1の実施形態における操作テーブル記憶部107が記憶する情報の例を示す図である。この図の例に示すように、操作テーブルは、ユーザ操作情報における操作種類情報と、カメラ操作種類情報との対応関係を記憶する。ここで、カメラ操作種類情報とは、カメラ操作の種類を示す情報であり、例えば、「オービット」を示すのであれば“orbit”、「ドリー」を示すのであれば”dolly”といった文字列である。ここでは簡単のため、カメラ操作種類情報が文字列である場合を例示したが、これに限定されない。カメラ操作種類情報は、操作の種類に対して一対一対応する情報であれば何でもよく、例えば識別番号であってもよい。
仮想カメラ情報は、前述の通り、仮想カメラのカメラパラメータを示す情報であり、少なくとも視点位置、及び視線方向に関する情報を含む。
基準仮想カメラ情報は、後述の仮想カメラ情報更新部109により仮想カメラ情報が更新される際に使用される情報である。基準仮想カメラ情報は、例えば、操作開始時の仮想カメラ情報の値(初期値)である。以下、便宜上「仮想カメラ情報」に対する「仮想カメラ」と同様に、基準仮想カメラ情報に対応する仮想空間中の仮想的なカメラを「基準仮想カメラ」と呼ぶ。
一方、操作開始フラグ情報がFalseを示している場合、仮想カメラ情報更新部109は、基準仮想カメラ情報、及び前述の各種情報を用いて、仮想カメラ情報を更新する。具体的に、仮想カメラ情報更新部109は、例えば、カメラ操作種類情報が「オービット」操作に対応する“orbit”である場合、ユーザ操作情報の操作ベクトル情報と、基準仮想カメラ情報とに基づき、仮想カメラに対して「オービット」の操作を行うよう仮想カメラ情報を更新する。
ステップS100:
表示制御装置10は、通信部100により画像生成装置20に仮想カメラ情報を送信する。通信部100は、仮想カメラ情報更新部109により更新された仮想カメラ情報を、画像生成装置20に送信する。仮想カメラ情報更新部109は、端末装置30に色画像を最初に表示させる場合において、予め定めた初期値を仮想カメラ情報とする。以降、仮想カメラ情報更新部109は、後述するステップS111において、仮想カメラ情報を、ユーザ操作情報の内容に応じて更新する。
ステップS101:
表示制御装置10は、端末装置30からユーザ操作情報を受信するまで待機する。表示制御装置10は、ユーザ操作情報を受信した場合にはステップS102に進む。
ステップS102:
表示制御装置10は、操作情報取得部106により取得されたユーザ操作情報に含まれる操作ステート情報が、「開始」、「継続」、又は「終了」の何れを示しているか判定する。表示制御装置10は、操作ステート情報が「開始」を示している場合、ステップS103に進み、「継続」を示している場合はステップS109に進み、「終了」を示している場合は終了ステップに進む。
表示制御装置10は、画像情報取得部101により、通信部100を介して画像生成装置20から各種画像情報(仮想空間に関する画像の画像情報)を受信する。通信部100は、ステップS100において画像生成装置20に送信した仮想カメラ情報に基づいて画像生成装置20が生成した各種画像情報を、画像生成装置20から受信する。
表示制御装置10は、顕著性マップ生成部102により、ステップS102で受信した仮想空間に関する画像のうちの色画像における顕著性の分布を示す顕著性マップを生成する。顕著性マップ生成部102は、例えば、色画像における画素ごとの色情報(RGB値)に基づいて判定した、画素ごとの顕著性を用いて顕著性マップを生成する。
ステップS105:
表示制御装置10は、ユーザ注視点推定部103により、顕著性マップ及び、必要に応じてユーザ操作情報に含まれる操作位置情報を用いて、ユーザが注視している画像上の二次元座標点であるユーザ注視点を推定する。
ステップS106:
表示制御装置10は、ユーザ注視点推定部103によるユーザ注視点の推定が成功したか否かを判定する。ユーザ注視点推定部103は、所定の条件を満たすユーザ注視点が存在するか否かに応じて、ユーザ注視点の推定が成功したか否かを判定する。所定の条件とは、例えば、顕著性マップにおける画素ごとの顕著性のうち、所定の注意閾値を超える画素が、所定の距離閾値で規定される範囲内に存在するとの条件である。すなわち、ユーザ注視点推定部103は、所定の注意閾値を超える画素であって、尚且つ所定の距離閾値で規定される範囲内にある画素が、顕著性マップ内に存在する場合、ユーザ注視点の推定が成功したと判定する。表示制御装置10は、当該ユーザ注視点の推定に成功した場合、ステップS107に進む。一方、表示制御装置10は、当該ユーザ注視点の推定に失敗した場合、終了ステップに進む。
表示制御装置10は、カメラ操作基準点決定部104により、当該ユーザ注視点と前記各種画像情報に含まれるジオメトリ画像から、カメラ操作基準点を決定(更新)し、更新したカメラ操作基準点を、カメラ操作基準点記憶部105に記憶(上書き)する。
ステップS108:
表示制御装置10は、仮想カメラ情報更新部109により、仮想カメラ情報から基準仮想カメラ情報を生成(更新)し、更新した基準仮想カメラ情報を仮想カメラ情報記憶部110に記憶(上書き)する。
表示制御装置10は、カメラ操作種類情報取得部108により、カメラ操作種類情報を取得する試みを行い、ステップS110に進む。
ステップS110:
表示制御装置10は、操作情報取得部106により取得したユーザ操作情報の操作種類情報が、操作テーブル記憶部107の操作テーブルに記録されており、カメラ操作種類情報取得部108によるカメラ操作種類情報の取得が成功した場合、ステップS111に進む。一方、表示制御装置10は、操作情報取得部106により取得したユーザ操作情報の操作種類情報が、操作テーブル記憶部107の操作テーブルに記録されていない場合、或いは、カメラ操作種類情報取得部108によりカメラ操作種類情報の取得が成功しなかった場合、終了ステップに進む。
ステップS111:
表示制御装置10は、仮想カメラ情報更新部109により、仮想カメラ情報を更新する。仮想カメラ情報更新部109は、カメラ操作種類情報、カメラ操作基準点、ユーザ操作情報の操作ベクトル情報、及び基準仮想カメラ情報に基づいて、仮想カメラ情報を更新する。
仮想カメラ情報更新部109は、例えば、カメラ操作種類情報が「オービット」に対応する場合、カメラ操作基準点を中心とする球面上を、視線方向をカメラ操作基準点に向けつつ、カメラ操作基準点を通る所定の方向の直線を回転軸として、操作ベクトル情報に応じた方向及び量だけ視点位置を移動させるよう仮想カメラ情報を更新する。
また、仮想カメラ情報更新部109は、例えば、カメラ操作種類情報が「ドリー」に対応する場合、操作ベクトル情報の示すX軸方向、又はY軸方向の値にもとづき、視点位置とカメラ操作基準点との距離を増減させるよう、仮想カメラ情報を更新してもよい。表示制御装置10は、仮想カメラ情報更新部109による仮想カメラ情報の更新の後、ステップS100に進む。
次に、第2の実施形態について説明する。第2の実施形態では、上述した第1の実施形態と異なる処理を行う機能部について、操作情報取得部106A,操作部302A、等というように符号の末尾に「A」を付して説明する。上述した第1の実施形態と同等の処理を行う機能部については、同一の符号を付して、その説明を省略する。
一点目は、端末装置30の操作部302Aに、鑑賞者の頭部や眼球の動きに基づき計測された、ユーザによる色画像上の注視点の座標を示す情報(以下、計測値という)が入力される点である。
二点目は、表示制御装置10の操作情報取得部106Aにおいて、ユーザ操作情報と共に当該計測値が取得され、取得された計測値がユーザ注視点推定部103に出力される点である。
三点目は、ユーザ注視点推定部103において、当該計測値に基づき、ユーザ注視点が推定される点である。
視線検出装置は、鑑賞者の視線を検出する装置であって、例えば、眼球に照射した赤外光の反射光に基づいて検出した角膜と瞳孔との相対的な位置関係を用いて、視線方向を判定する。或いは、視線検出装置は、可視光カメラにより撮像した鑑賞者の目の画像に基づいて検出した目頭と虹彩との相対的な位置関係を用いて、視線方向を判定するようにしてもよい。また、視線検出装置は、鑑賞者の傍ら等に据え置かれて用いられる、据え置き型の装置であってもよいし、鑑賞者に装着されて用いられる、眼鏡型やHMD(Head Mounted Display、頭部装着ディスプレイ)などの装置であってもよい。
ユーザ注視点推定部103Aは、操作情報取得部106Aから取得した当該計測値に基づき、ユーザ注視点を推定する。
10…表示制御装置
100…通信部
101…画像情報取得部
102…顕著性マップ生成部
103…ユーザ注視点推定部
104…カメラ操作基準点決定部
105…カメラ操作基準点記憶部
106…操作情報取得部
107…操作テーブル記憶部
108…カメラ操作種類情報取得部
109…仮想カメラ情報更新部
110…仮想カメラ情報記憶部
111…制御部
20…画像生成装置
200…通信部
201…仮想カメラ情報取得部
202…画像生成部
203…仮想空間情報記憶部
204…制御部
30…端末装置
300…通信部
301…表示部
302…操作部
303…制御部
Claims (12)
- 端末装置に表示される色画像の表示状態を制御する表示制御装置であって、
前記色画像は、仮想空間を仮想カメラのカメラパラメータを示す仮想カメラ情報に基づき、平面に投影した画像の各画素に、色を示す情報が格納された画像であり、
前記色画像、及びジオメトリ画像の画像情報を取得する画像情報取得部と、
前記端末装置に表示された前記色画像に対する、ユーザの操作を示すユーザ操作情報を取得する操作情報取得部と、
前記ユーザによる注視点であって、前記色画像に含まれる画素の二次元座標を示すユーザ注視点を推定するユーザ注視点推定部と、
前記ジオメトリ画像は、前記仮想空間を前記仮想カメラ情報に基づき平面に投影した画像の各画素に、形状を示す情報が格納された画像であり、前記ユーザ注視点、及び前記ジオメトリ画像に基づき、前記仮想カメラの操作の基準となる点であって、前記仮想空間の点を示す三次元座標を示すカメラ操作基準点を決定するカメラ操作基準点決定部と、
前記カメラ操作基準点、及び前記ユーザ操作情報に基づき、前記仮想カメラ情報を更新する仮想カメラ情報更新部と、
を備えることを特徴とする表示制御装置。 - 前記仮想空間を前記仮想カメラ情報に基づき平面に投影した画像の各画素に、当該画素の顕著性を示す度合いを示す情報が格納された顕著性マップを生成する顕著性マップ生成部を更に備え、
前記ユーザ注視点推定部は、前記顕著性マップを用いて、前記ユーザ注視点を推定する、
ことを特徴とする請求項1に記載の表示制御装置。 - 前記ユーザ注視点推定部は、前記顕著性マップに基づく、画素ごとの顕著性の度合いと所定の注意閾値とを比較することにより、前記ユーザ注視点を推定する、
ことを特徴とする請求項2に記載の表示制御装置。 - 前記ユーザ注視点推定部は、前記顕著性マップのうち、顕著性の度合いが最大値であり、かつ、当該顕著性の度合いが所定の注意閾値よりも大きい画素の座標を、前記ユーザ注視点とする、
ことを特徴とする請求項3に記載の表示制御装置。 - 前記ユーザ操作情報が、前記ユーザによる操作がなされた、前記色画像の位置を示す操作位置情報を含み、
前記ユーザ注視点推定部は、前記顕著性マップを複数の領域に分割し、当該複数の領域の各々に含まれる複数の画素の顕著性の度合いに基づく統計値と、当該複数の画素の座標に基づく重心座標とを算出し、前記複数の領域のうち、前記統計値が所定の注意閾値よりも大きく、前記重心座標から前記操作位置情報に示される位置までの距離が所定の距離閾値以内となる領域を抽出し、抽出した領域における前記重心座標を、前記ユーザ注視点とする、
ことを特徴とする請求項3に記載の表示制御装置。 - 前記ユーザ注視点推定部は、前記領域の面積が大きい程、前記統計値が増加するように前記統計値を算出する、
ことを特徴とする請求項5に記載の表示制御装置。 - 前記画像情報取得部は、前記仮想空間を、前記仮想カメラ情報に基づき平面に投影した画像の各画素に、カメラ操作基準点とするか否かの閾値である注意閾値を示す情報が格納された注意閾値画像の画像情報を取得し、
前記ユーザ注視点推定部は、前記注意閾値画像の各画素に対応付けられた注意閾値を、前記所定の注意閾値として、画素ごとの顕著性の度合いと比較することにより、前記ユーザ注視点を推定する、
ことを特徴とする請求項3から請求項6の何れか一項に記載の表示制御装置。 - 前記注意閾値画像では、少なくとも一つの画素において、当該画素に対応する注意閾値に、前記顕著性マップにおける顕著性を示す度合いとして設定される範囲に含まれない値が設定される、
ことを特徴とする請求項7に記載の表示制御装置。 - 前記操作情報取得部は、前記ユーザによる前記色画像を視る位置、及び方向が計測された計測値を、前記端末装置から取得し、
前記ユーザ注視点推定部は、前記計測値を用いて、前記ユーザ注視点を推定する、
ことを特徴とする請求項1から請求項8の何れか一項に記載の表示制御装置。 - 前記ユーザ操作情報が、前記仮想カメラにおける操作の種類を示す操作種類情報、及び前記仮想カメラにおける操作の方向を示す操作方向情報を含み、
前記仮想カメラ情報更新部は、前記操作種類情報にオービットが示されている場合、前記仮想カメラの視線方向を、前記カメラ操作基準点に向けた状態を維持しつつ、前記操作方向情報に基づき、視点位置を、前記カメラ操作基準点を中心とする球面上で移動させるように前記仮想カメラ情報を更新する、
ことを特徴とする請求項1から請求項9の何れか一項に記載の表示制御装置。 - 端末装置に表示される色画像の表示状態を制御する表示制御方法であって、
前記色画像は、仮想空間を仮想カメラのカメラパラメータを示す仮想カメラ情報に基づき、平面に投影した画像の各画素に、色を示す情報が格納された画像であり、
画像情報取得部が、前記色画像、及びジオメトリ画像の画像情報を取得する画像情報取得工程と、
操作情報取得部が、前記端末装置に表示された前記色画像に対する、ユーザの操作を示すユーザ操作情報を取得する操作情報取得工程と、
ユーザ注視点推定部が、前記ユーザによる前記色画像における注視点を示す二次元座標であるユーザ注視点を推定するユーザ注視点推定工程と、
前記ジオメトリ画像は、前記仮想空間を前記仮想カメラ情報に基づき平面に投影した画像の各画素に、形状を示す情報が格納された画像であり、カメラ操作基準点決定部が、前記ユーザ注視点、及び前記ジオメトリ画像に基づき、前記仮想空間の一点を示す三次元座標であって、前記仮想カメラの操作の基準となるカメラ操作基準点を決定するカメラ操作基準点決定工程と、
仮想カメラ情報更新部が、前記カメラ操作基準点、及び前記ユーザ操作情報に基づき、前記仮想カメラ情報を更新する仮想カメラ情報更新工程と、
を含むことを特徴とする表示制御方法。 - 端末装置に表示される、仮想空間を仮想カメラのカメラパラメータを示す仮想カメラ情報に基づき、平面に投影した画像の各画素に、色を示す情報が格納された色画像の表示状態を制御する表示制御装置のコンピュータを、
前記色画像、及びジオメトリ画像の画像情報を取得する画像情報取得手段、
前記端末装置に表示された前記色画像に対する、ユーザの操作を示すユーザ操作情報を取得する操作情報取得手段、
前記ユーザによる前記色画像における注視点を示す二次元座標であるユーザ注視点を推定するユーザ注視点推定手段、
前記ジオメトリ画像は、前記仮想空間を前記仮想カメラ情報に基づき平面に投影した画像の各画素に、形状を示す情報が格納された画像であり、前記ユーザ注視点、及び前記ジオメトリ画像に基づき、前記仮想空間の一点を示す三次元座標であって、前記仮想カメラの操作の基準となるカメラ操作基準点を決定するカメラ操作基準点決定手段、
前記カメラ操作基準点、及び前記ユーザ操作情報に基づき、前記仮想カメラ情報を更新する仮想カメラ情報更新手段、
として機能させるプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019144323A JP7287172B2 (ja) | 2019-08-06 | 2019-08-06 | 表示制御装置、表示制御方法、及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019144323A JP7287172B2 (ja) | 2019-08-06 | 2019-08-06 | 表示制御装置、表示制御方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021026526A JP2021026526A (ja) | 2021-02-22 |
JP7287172B2 true JP7287172B2 (ja) | 2023-06-06 |
Family
ID=74663128
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019144323A Active JP7287172B2 (ja) | 2019-08-06 | 2019-08-06 | 表示制御装置、表示制御方法、及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7287172B2 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113259642B (zh) * | 2021-05-12 | 2023-05-30 | 华强方特(深圳)科技有限公司 | 一种影片视角调节方法及系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011034311A (ja) | 2009-07-31 | 2011-02-17 | Casio Computer Co Ltd | 画像処理装置及び方法 |
JP2013029958A (ja) | 2011-07-28 | 2013-02-07 | Sony Corp | 情報処理装置、情報処理方法、及びプログラム |
JP2014215828A (ja) | 2013-04-25 | 2014-11-17 | シャープ株式会社 | 画像データ再生装置、および視点情報生成装置 |
JP2014232477A (ja) | 2013-05-30 | 2014-12-11 | 株式会社ニコン | 被写体特定装置、撮像装置、被写体特定方法及び被写体特定プログラム |
WO2019003953A1 (ja) | 2017-06-29 | 2019-01-03 | ソニー株式会社 | 画像処理装置および画像処理方法 |
JP2019057291A (ja) | 2018-10-10 | 2019-04-11 | キヤノン株式会社 | 制御装置、制御方法、及びプログラム |
-
2019
- 2019-08-06 JP JP2019144323A patent/JP7287172B2/ja active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011034311A (ja) | 2009-07-31 | 2011-02-17 | Casio Computer Co Ltd | 画像処理装置及び方法 |
JP2013029958A (ja) | 2011-07-28 | 2013-02-07 | Sony Corp | 情報処理装置、情報処理方法、及びプログラム |
JP2014215828A (ja) | 2013-04-25 | 2014-11-17 | シャープ株式会社 | 画像データ再生装置、および視点情報生成装置 |
JP2014232477A (ja) | 2013-05-30 | 2014-12-11 | 株式会社ニコン | 被写体特定装置、撮像装置、被写体特定方法及び被写体特定プログラム |
WO2019003953A1 (ja) | 2017-06-29 | 2019-01-03 | ソニー株式会社 | 画像処理装置および画像処理方法 |
JP2019057291A (ja) | 2018-10-10 | 2019-04-11 | キヤノン株式会社 | 制御装置、制御方法、及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP2021026526A (ja) | 2021-02-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11557102B2 (en) | Methods for manipulating objects in an environment | |
US20220084279A1 (en) | Methods for manipulating objects in an environment | |
US11983326B2 (en) | Hand gesture input for wearable system | |
EP3997552B1 (en) | Virtual user interface using a peripheral device in artificial reality environments | |
EP3250983B1 (en) | Method and system for receiving gesture input via virtual control objects | |
US11430192B2 (en) | Placement and manipulation of objects in augmented reality environment | |
CN108469899B (zh) | 识别可穿戴显示装置的观察空间中的瞄准点或区域的方法 | |
JP5966510B2 (ja) | 情報処理システム | |
US20170092002A1 (en) | User interface for augmented reality system | |
CN111766937B (zh) | 虚拟内容的交互方法、装置、终端设备及存储介质 | |
JP5656514B2 (ja) | 情報処理装置及び方法 | |
US9599825B1 (en) | Visual indicator for transparent display alignment | |
JPWO2014141504A1 (ja) | 3次元ユーザインタフェース装置及び3次元操作処理方法 | |
JP2017027206A (ja) | 情報処理装置、仮想オブジェクトの操作方法、コンピュータプログラム、及び記憶媒体 | |
JP2017004356A (ja) | 仮想空間位置指定方法、プログラム、プログラムを記録した記録媒体、および、装置 | |
CN111766936A (zh) | 虚拟内容的控制方法、装置、终端设备及存储介质 | |
CN109643182B (zh) | 信息处理方法、装置、云处理设备及计算机程序产品 | |
JP7287172B2 (ja) | 表示制御装置、表示制御方法、及びプログラム | |
CN117372475A (zh) | 眼球追踪方法和电子设备 | |
WO2022176450A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
CN113672158A (zh) | 一种增强现实的人机交互方法及设备 | |
Unuma et al. | [poster] natural 3d interaction using a see-through mobile AR system | |
JP7480408B1 (ja) | 情報処理システム、情報処理装置、プログラム及び情報処理方法 | |
WO2024131405A1 (zh) | 对象移动控制方法、装置、设备及介质 | |
JP2017004539A (ja) | 仮想空間位置指定方法、プログラム、プログラムを記録した記録媒体、および、装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220725 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230331 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230425 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230508 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7287172 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |