JP2016197364A - 操作支援装置、及びプログラム - Google Patents

操作支援装置、及びプログラム Download PDF

Info

Publication number
JP2016197364A
JP2016197364A JP2015077619A JP2015077619A JP2016197364A JP 2016197364 A JP2016197364 A JP 2016197364A JP 2015077619 A JP2015077619 A JP 2015077619A JP 2015077619 A JP2015077619 A JP 2015077619A JP 2016197364 A JP2016197364 A JP 2016197364A
Authority
JP
Japan
Prior art keywords
information
target
operation target
support apparatus
specifying
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015077619A
Other languages
English (en)
Other versions
JP6346585B2 (ja
Inventor
孔希 草野
Kouki Kusano
孔希 草野
篤信 木村
Atsunobu Kimura
篤信 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2015077619A priority Critical patent/JP6346585B2/ja
Publication of JP2016197364A publication Critical patent/JP2016197364A/ja
Application granted granted Critical
Publication of JP6346585B2 publication Critical patent/JP6346585B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】AR環境におけるAR操作対象を効率良く操作することを可能とする技術を提供する。【解決手段】現実空間上に仮想的な情報を重ねて提示することで、現実空間を拡張するAugmented Reality(AR)環境に存在する操作対象であるAR操作対象への操作を支援する操作支援装置において、物理的なデバイスである操作デバイスの位置と、当該操作デバイスに与えられた操作情報を取得する入力手段と、前記操作デバイスの位置に基づいて、AR操作対象を特定する特定手段と、前記操作デバイスに与えられた操作情報と、前記特定手段により特定されたAR操作対象とに基づいて、前記操作情報を変換し、変換により得られた操作を前記特定されたAR操作対象に適用する操作手段とを備える。【選択図】図1

Description

本発明は、AR環境における操作対象の操作を行うための技術に関連するものである。
現実空間上に仮想的な情報を重ねて提示することで、現実空間を拡張するAugumented Reality(AR:拡張現実感)環境を提供する技術がある。このARを用いた情報提示として、主にウェアラブル環境において、ヘッドマウントディスプレイ(HMD)を用いた提示方法が提案されている。これにより、物理的な操作デバイスを把持せず、かつ視界を広範囲に覆うARが活用できるようになりつつある。
しかし、HMDによるARでは、ユーザがAR環境上の操作対象(以下、AR操作対象)を直接操作できない、という問題が発生している。そのため、HMDの操作をするためにHMDに組み込まれたリモコンを用いる。しかし、リモコン操作と、AR操作対象との対応付けがわかりにくく、直感的に操作することは難しい。
このような操作性の問題を解決するために、例えば、非特許文献1に開示されているように、マーカーを搭載したコントローラ(指)を操作することで、AR空間を操作する方法が検討されている。また、非特許文献2に開示されているように、ハンドジェスチャ(手の動き)によって操作対象を操作する方法も提案されている。これによって、デバイスレスで、特定の操作対象をジェスチャによってある程度直感的に操作できる。
SixthSense: a wearable gestural interface, SIGGRAPH Asia 2009, Yokohama, Japan, December 16-19, 2009. LeapLook: a free-hand gestural travel technique using the leap motion finger tracker, SUI'14, October 4-5, 2014, Honolulu, HI, USA
上記従来技術を用いることで、より直感的にAR操作対象を操作できると考えられる。しかし、上記従来技術をAR環境で用いる場合、実空間には存在しないAR操作対象を指やジェスチャによって操作する必要があるため、操作に対して十分なフィードバックが得にくく、また、AR操作対象を操作するために常に手や腕を空中で動かす必要があり疲れやすい、という物理的な課題が残る。加えて、第三者から見た場合に、何も無い空間に対して腕や手を動かすため、操作している姿が変に見えてしまう(見られてしまうのではないか)、という心理的な課題もある。
本発明は上記の点に鑑みてなされたものであり、AR環境におけるAR操作対象を効率良く操作することを可能とする技術を提供することを目的とする。
本発明の実施の形態により、現実空間上に仮想的な情報を重ねて提示することで、現実空間を拡張するAugmented Reality(AR)環境に存在する操作対象であるAR操作対象への操作を支援する操作支援装置であって、
物理的なデバイスである操作デバイスの位置と、当該操作デバイスに与えられた操作情報を取得する入力手段と、
前記操作デバイスの位置に基づいて、AR操作対象を特定する特定手段と、
前記操作デバイスに与えられた操作情報と、前記特定手段により特定されたAR操作対象とに基づいて、前記操作情報を変換し、変換により得られた操作を前記特定されたAR操作対象に適用する操作手段と
を備えることを特徴とする操作支援装置が提供される。
本発明の実施の形態によれば、AR環境におけるAR操作対象を効率良く操作することを可能とする技術が提供される。
本発明の実施の形態に係る操作支援装置10の構成図である。 入力部11の動作手順を示すフローチャートである。 入力情報の例を示す図である。 特定部12の動作手順を示すフローチャートである。 AR操作対象を特定する様子を示す図である。 特定部12の動作に対応するプログラムの例を示す図である。 操作部13の動作手順を示すフローチャートである。 変換DB14の情報例を示す図である。 操作デバイスがタッチパネルを持つ場合の操作情報もAR操作対象への適用例を示す図である。 複数の操作対象への操作情報の適用例を示す図である。 傾き、加速度を用いる場合の変換DB14の情報例を示す図である。 出力部15の動作手順を示すフローチャートである。
以下、図面を参照して本発明の実施の形態を説明する。なお、以下で説明する実施の形態は一例に過ぎず、本発明が適用される実施の形態は、以下の実施の形態に限られるわけではない。
(実施の形態の概要)
本実施の形態ではAR操作対象を効率良く操作できるようにすることを目的として、「物理的なAR空間操作デバイス」(以下、操作デバイス)を用いることにより、直感的なAR操作対象の操作を実現する操作支援装置が提供される。具体的には、操作支援装置は、操作デバイスの位置情報を取得し、AR環境におけるAR操作対象の位置情報と突合することで、操作デバイスで操作するAR操作対象を特定し、かつ操作デバイスに与えられた操作情報を、AR操作対象に応じて変換し、適用することで、高速なAR操作対象の特定と操作を可能とする。
これにより、AR操作対象をスマートフォンなどの既存のデバイスを利用する感覚で直感的に操作できるようになり、HMD(ヘッドマウントディスプレイ)を用いたAR環境の操作における物理的、心理的な課題の両方を解決することとしている。以下、本実施の形態についてより詳細に説明する。なお、本実施の形態では、AR環境を利用者に提示するディスプレイとしてHMDを使用することを想定しているが、本発明はHMD以外のディスプレイにも適用可能である。
(装置構成、機能概要)
図1に、本実施の形態に係る操作支援装置10の構成図を示す。操作支援装置10は、AR環境を提供するディスプレイ(HMD)の利用者がAR環境においてAR操作対象を操作することを支援する装置である。
操作支援装置10は、例えばHMDに組み込まれる装置であってもよいし、HMDの外部に備えられる装置であってもよい。また、HMDの機能の一部として操作支援装置10の機能が備えられていてもよい。
なお、本実施の形態におけるAR環境を提供するHMDの方式は特定の方式に限定されない。例えば、本実施の形態では、AR操作対象が、現実空間と重なって利用者に見える方式のHMDを用いることができる。また、ARの方式も特定の方式に限定されない。例えば、マーカーを用いる方式、マーカーを用いない方式のいずれでもよい。
図1に示すように、操作支援装置10は、入力部11、特定部12、操作部13、変換DB(データベース)14、及び出力部15を含む。特定部12は、複数特定部112を含む。
前述したように、本実施の形態では、AR操作対象の操作を行うために操作デバイスが用いられる。一例として操作デバイスはスマートフォンであるが、操作デバイスは特定の装置に限定されない。操作デバイスと操作支援装置10は有線又は無線により通信可能であり、操作支援装置10は操作デバイスでなされた操作の情報等を操作デバイスから取得できる。以下、操作支援装置10の各部の動作概要を説明する。
入力部11は、操作デバイスの位置情報と当該操作デバイスに対して与えられる操作情報を受け取る。一例として、操作デバイスがスマートフォンのようにタッチパネルを有する装置である場合、入力部11は、タッチパネルに対する操作の情報を操作情報として取得する。
特定部12は、操作デバイスの位置情報とAR操作対象の位置情報とを突合し、操作デバイスにより操作する対象となるAR操作対象を特定する。複数特定部112では、操作デバイスに与えられた特定の操作情報(例:複数選択を指定する操作)がある場合に、複数の操作対象を特定する。
操作部13は、特定部12等により特定されたAR操作対象に応じて、操作デバイスに与えられた操作情報を変換し、AR操作対象に適用する。例として、操作デバイスがタッチパネルデバイスの場合は、タッチパネルへの操作をそのままAR操作対象に適用するすることとしてもよい。操作部13による操作情報の変換にあたっては、変換DB14に格納された情報が用いられる。
出力部15は、特定部12でのAR操作対象の特定結果、及び当該AR操作対象に操作情報を適用した結果をAR環境に提示する。すなわち、操作されたAR操作対象を含むAR環境をディスプレイ22(例:HMD)に表示する。また、例えば、操作デバイスがタッチパネルデバイスの場合、出力部15は、AR環境への特定結果及び操作情報の適用結果の提示に加えて、特定したAR操作対象をタッチパネルに表示するとともに、操作情報の適用結果についてもタッチパネルに表示することとしてもよい。
なお、AR環境を作成・提示する機能(AR操作対象の作成、表示を行う機能等)自体は既存技術であるため、詳細には説明していない。AR環境を作成・提示する当該機能自体は、操作支援装置10が有することとしてもよいし、操作支援装置10の外部の装置が有することとしてもよい。いずれの場合も、操作支援装置10は、AR環境におけるAR操作対象の情報(AR操作対象毎の位置情報、形の情報等)を保持する、もしくは取得できる。
本実施の形態に係る操作支援装置10は、例えば、CPU及びメモリ等を備えるコンピュータ(コンピュータの機能を有する様々な装置を含む)に、本実施の形態で説明する処理内容を記述したプログラムを実行させることにより実現可能である。すなわち、操作支援装置10が有する機能は、当該コンピュータに内蔵されるCPUやメモリ、ハードディスクなどのハードウェア資源を用いて、操作支援装置10で実施される処理に対応するプログラムを実行することによって実現することが可能である。また、上記プログラムは、コンピュータが読み取り可能な記録媒体(可搬メモリ等)に記録して、保存したり、配布したりすることが可能である。また、上記プログラムをインターネットや電子メールなど、ネットワークを通して提供することも可能である。
以下、各部の動作をより詳細に説明する。
(入力部11)
図2に、入力部11の動作手順を示す。図2に示すように、入力部11は、AR環境と連携する操作デバイスから、操作デバイスの位置(x,y,z)と、操作デバイスに対する操作情報を取得する(ステップS101、S102)。これは継続的になされるものである。また、取得された操作デバイスの位置の情報は特定部12に渡され(ステップS103)、操作情報は操作部13に渡される(ステップS104)。
図3に、入力情報の例を示す。図3に示す例では、時間(操作がなされた時刻)、位置、及び操作情報が入力される。図3の例においては表形式での情報入力を想定しているが、上記情報を取得可能であればどのような形式であってもよい。また、操作デバイスの位置についてもAR操作対象(xi,yi,zi)と突合できる形式であれば、どのような形式でも良い。操作デバイスに対する操作情報としては、例えば操作デバイスがタッチパネルを搭載している場合、入力としては、タップ、スワイプ、ピンチなどの操作を受け付けることができる。
具体的な操作デバイスの位置の取得方法としては、例えば、HMDにKinectのような赤外線レーザーを用いたToF(Time of Flight)方式による対象デバイスの位置と距離推定が可能なデバイスを搭載することで、位置情報の取得が可能である。その他にも、ARマーカーを操作デバイスに予め搭載しておき、HMDにカメラを搭載することで、ARマーカーを認識し、デバイス位置を推定し、推定した位置を操作支援装置10に提供することも可能である。逆に、操作デバイス側にカメラを搭載し、HMDに搭載したARマーカーを検知することで、HMDと操作デバイスとの距離を検出することも可能である。このように、操作デバイスの位置の取得については、HMDの位置(つまり、利用者の位置)を基準としてx,y,zが取れるのであればどのような方式であっても良い。
具体的なAR環境と操作デバイスとの連携方法としては、例えば、Bluetooth(登録商標)などの無線通信を用いることで実現可能であるし、有線接続で繋いでも良い。このように、HMDを基準とした操作デバイスの位置情報が検出可能であって、かつ、操作デバイスの操作情報をAR操作対象に適用できるのであれば、どのような方式を用いても構わない。
(特定部12)
特定部12では、入力部11で得た操作デバイスの位置情報をもとにAR操作対象を特定する。図4に、特定部12の動作手順を示す。
図4に示すように、特定部12は、入力部11により得られ、メモリ等に格納されている操作デバイスの位置の情報を読み込む(ステップS201)。特定部12は、各AR操作対象iに対して操作デバイスとの距離を算出する(ステップS202、S203)。
全てのAR操作対象について、操作デバイスとの距離の算出が終了したら、最小の距離を持つAR操作対象iを特定する(ステップS204)。特定部12は、特定したAR操作対象の情報を操作部13に渡す(ステップS205)。
図5に、操作デバイスの位置の情報を用いてAR操作対象を特定するイメージを例示する。図5に示す例では、AR操作対象1〜4のうち、操作デバイスとの距離が最小であるAR操作対象1が、操作デバイスによる操作の対象として特定されている。なお、図4の例では、最小の距離を持つAR操作対象を特定しているが、更に、最小の距離を持つAR操作対象が一定の距離以下にある場合に、当該AR操作対象を操作対象として特定することとしてもよい。この場合のプログラムの例を図6に示す。当該プログラムは、特定部12の動作に対応する。
図6のプログラムにおける変数は下記のように定義されるものである。
AR操作対象i:objects[i];//objectsは配列
操作デバイスの位置情報:x,y,z;
AR操作対象iの位置情報:xi,yi,zi;
絶対値の取得:Math.abs();
最小値の取得:Math.min();
AR操作対象iと操作デバイスとの距離:distances[i] //distancesは配列
係数:A,B,C;
操作対象と見なす閾値: Threshold。
なお、一定の距離以下にあるAR操作対象を最初に検出し、当該AR操作対象が複数有る場合に、最も操作デバイスの位置に近いAR操作対象を選択することとしてもよい。
また、操作デバイスに特定の操作情報(複数選択を指定する操作)を与え、当該操作情報が複数特定部112に通知されることで、複数特定部112がAR操作対象(操作デバイスによる操作の対象)を複数特定することとしてもよい。例えば、デスクトップコンピュータ環境における範囲選択や、複数選択、全選択などの操作と同様の操作により複数AR操作対象を選択したり、操作デバイスの位置からの距離が一定以内のAR操作対象を自動的に全て選択することとしてもよい。
(操作部13)
操作部13では、AR操作対象に応じて操作デバイスに与えられた操作情報を変換し、変換された操作を特定されたAR操作対象に与える。図7に、操作部13の動作手順を示す。
図7に示すように、操作部13は、特定部12により特定されたAR操作対象の情報を読み込み(ステップS301)、入力部11により取得された操作デバイスへの操作情報を読み込む(ステップS302)。操作部13は、変換DB14を参照し、ステップS301、S302で取得したAR操作対象と操作情報に対応する操作を特定し、当該操作をAR操作対象に適用する(ステップS303、S304)。
図8に変換DB14の例を示す。図8に示す例では、表形式で情報を保持しているが、変換方法の情報を保持できる方法であれば、テキスト、xmlなど、任意の形式で保持して良い。図8に示すように、例えば、AR操作対象が「リンク」であり、操作情報が「タップ」であるとすると、「リンク選択」という操作が、当該「リンク」に対して適用される。
また、例として、操作デバイスがタッチパネルを持つ場合の操作情報のAR操作対象への適用例を図9に示す。タッチパネルを具備する操作デバイスでは、タッチパネルに与えられた操作情報をそのままAR環境の操作対象に適用することができる。つまり、図9に示すように、「ピンチ」(例:2本の指でタッチパネル表面を押し広げる動作)を行うことで、AR操作対象1が拡大される(例えば、利用者は当該対象がズームで大きくなったように見える)。
また、図10に示すように、複数のAR操作対象が特定されている場合には、複数の操作対象に対して、操作デバイスに与えられた操作情報を同時に適用することができる。図10の例では、AR操作対象1と3にピンチの操作が適用されている。
また、本実施の形態では、一時的にAR操作対象と操作デバイスとの関係を固定し、操作デバイス位置が変わっても、AR操作対象への操作情報の適用を継続させることを指示する操作(固定の操作と呼ぶ)が可能である。この場合、操作デバイスの位置をAR操作対象の位置に適用することが可能となる。
つまり、AR操作対象を操作デバイスの位置で指定するとともに、一時的にAR操作対象と操作デバイスとの関係を固定することを指示する操作を行う。その後、利用者は、操作デバイス上での実際の操作を(AR操作対象の位置でなくて)手元で行うことができる。これにより、素早い操作デバイスの特定と、特定後の直感的な操作感とを両立できる。なお、操作が完了した後、固定を解除することで、操作デバイスの操作情報のAR操作対象への適用を停止できる。
また、操作デバイスの位置によりAR操作対象を特定した後で、操作デバイスの操作により位置情報の同期を指示することで、操作デバイスの位置をAR操作対象に適用することも可能である。これにより、操作デバイスを用いて、AR操作対象のAR空間上の提示(表示)位置を素早く変更できるようになる。
また、操作デバイスに与えられた傾きや加速度(例:操作デバイスを振る)などが操作情報として入力部11に与えられる場合、それらの操作情報をAR操作対象に応じて変換し、AR操作対象に適用することも可能である。当該変換を行う場合の変換DB14の例を図11に示す。図11に示す例において、例えば、AR操作対象として「ボタン」が特定され、操作情報として「加速度」が与えられた場合、当該「ボタン」に対する操作として「タップ」が適用される。さらに、操作デバイスの地理的位置座標(例:GPS座標)を取得し、当該地理的位置座標も加味して、AR操作対象に適用する操作を決定することとしてもよい。
なお、傾き、加速度、地理的位置情報は組み合わせてもよい。つまり、傾き、加速度、地理的位置情報のうちのいずれか1つ又は複数を用いることとしてもよい。また、傾き、加速度等と、図8等に示すタッチパネル上の操作情報とを組み合わせて用いることとしてもよい。
(出力部15)
図12は、出力部15の動作手順を示す。図12に示すように、出力部15は、特定部12の特定結果をディスプレイ22に出力するとともに、操作部13によるAR操作対象に対する操作の結果(操作後のAR操作対象)をディスプレイ22に出力する(ステップS401、S402)。
つまり、AR環境を表示するディスプレイ(HMDなど)には、特定部12における特定結果、及び操作部13で操作した結果が統合して提示される。これにより、利用者は、例えば図9に示すように、操作デバイスによる操作後のAR環境を見ることができる。
なお、出力部15は、操作に係るAR操作対象のみならず、操作に関わらないAR操作対象も含むAR環境を出力する機能を持つ。
このようにして、操作支援装置10の利用者はディスプレイ22に表示された情報を見ながら、操作デバイスを用いてAR環境のAR操作対象を操作することが可能となる。
また、例として、タッチパネルを搭載する操作デバイスを使用する場合は、特定されたAR操作対象をタッチパネルに投影することとしてもよい。これにより、AR操作対象をタッチパネル上で操作することが可能となり、タッチパネルなど一般に普及したデバイスの操作感で、AR操作対象を操作することが可能となる。特定されたAR操作対象をタッチパネルに投影する処理は、例えば、操作支援装置10から操作デバイスに対して投影画像の情報を送り、操作デバイスが投影画像(AR操作対象)を表示することにより行う。
(実施の形態のまとめ)
以上、説明したように、本実施の形態により、現実空間上に仮想的な情報を重ねて提示することで、現実空間を拡張するAugmented Reality(AR)環境に存在する操作対象であるAR操作対象への操作を支援する操作支援装置であって、物理的なデバイスである操作デバイスの位置と、当該操作デバイスに与えられた操作情報を取得する入力手段と、前記操作デバイスの位置に基づいて、AR操作対象を特定する特定手段と、前記操作デバイスに与えられた操作情報と、前記特定手段により特定されたAR操作対象とに基づいて、前記操作情報を変換し、変換により得られた操作を前記特定されたAR操作対象に適用する操作手段とを備える操作支援装置が提供される。
前記操作支援装置は、例えば、AR操作対象と操作情報とに対応する操作を規定した変換データベースを備え、前記操作手段は、前記変換データベースを参照することにより、前記特定されたAR操作対象に適用する操作を決定することとしてもよい。
前記操作デバイスは、例えば、タッチパネルを備えるデバイスであり、前記操作情報は、当該タッチパネル上の操作を示す操作情報である。また、前記操作情報として、前記操作デバイスの傾き、加速度、地理的位置情報のうちのいずれか1つ又は複数を用いることとしてもよい。
前記操作デバイスに特定の操作が与えられた場合に、前記特定手段は、複数のAR操作対象を同時に特定し、前記操作手段は、操作デバイスに対する操作情報に基づく操作を、前記複数のAR操作対象に適用することとしてもよい。
前記特定手段は、例えば、前記操作デバイスとの距離が所定の閾値よりも小さいAR操作対象を特定することができる。
(実施の形態の効果)
本実施の形態における操作支援装置10を用いることにより、AR操作対象をスマートフォンなどの既存のデバイスを利用する感覚で直感的に操作できるようになるため、操作に関する学習時間が短くなる。また、ジェスチャなどの大きな動作が必要なくなるため、操作動作を小さくできる。さらに、加えて、HMDを用いたAR環境の操作において、第三者から見た場合に操作している姿が変に見えてしまう(見られてしまうのではないか)という心理的な障壁を軽減できる。
本発明は、上記の実施の形態に限定されることなく、特許請求の範囲内において、種々変更・応用が可能である。
10 操作支援装置
11 入力部
12 特定部
13 操作部
14 変換DB
15 出力部
12 複数特定部
21 位置、操作情報
22 ディスプレイ

Claims (7)

  1. 現実空間上に仮想的な情報を重ねて提示することで、現実空間を拡張するAugmented Reality(AR)環境に存在する操作対象であるAR操作対象への操作を支援する操作支援装置であって、
    物理的なデバイスである操作デバイスの位置と、当該操作デバイスに与えられた操作情報を取得する入力手段と、
    前記操作デバイスの位置に基づいて、AR操作対象を特定する特定手段と、
    前記操作デバイスに与えられた操作情報と、前記特定手段により特定されたAR操作対象とに基づいて、前記操作情報を変換し、変換により得られた操作を前記特定されたAR操作対象に適用する操作手段と
    を備えることを特徴とする操作支援装置。
  2. 前記操作支援装置は、AR操作対象と操作情報とに対応する操作を規定した変換データベースを備え、
    前記操作手段は、前記変換データベースを参照することにより、前記特定されたAR操作対象に適用する操作を決定する
    ことを特徴とする請求項1に記載の操作支援装置。
  3. 前記操作デバイスは、タッチパネルを備えるデバイスであり、前記操作情報は、当該タッチパネル上の操作を示す操作情報である
    ことを特徴とする請求項1又は2に記載の操作支援装置。
  4. 前記操作情報として、前記操作デバイスの傾き、加速度、地理的位置情報のうちのいずれか1つ又は複数を用いる
    ことを特徴とする請求項1ないし3のうちいずれか1項に記載の操作支援装置。
  5. 前記操作デバイスに特定の操作が与えられた場合に、前記特定手段は、複数のAR操作対象を同時に特定し、前記操作手段は、操作デバイスに対する操作情報に基づく操作を、前記複数のAR操作対象に適用する
    ことを特徴とする請求項1ないし4のうちいずれか1項に記載の操作支援装置。
  6. 前記特定手段は、前記操作デバイスとの距離が所定の閾値よりも小さいAR操作対象を特定する
    ことを特徴とする請求項1ないし5のうちいずれか1項に記載の操作支援装置。
  7. コンピュータを、請求項1ないし6のうちいずれか1項に記載の操作支援装置における各手段として機能させるためのプログラム。
JP2015077619A 2015-04-06 2015-04-06 操作支援装置、及びプログラム Active JP6346585B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015077619A JP6346585B2 (ja) 2015-04-06 2015-04-06 操作支援装置、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015077619A JP6346585B2 (ja) 2015-04-06 2015-04-06 操作支援装置、及びプログラム

Publications (2)

Publication Number Publication Date
JP2016197364A true JP2016197364A (ja) 2016-11-24
JP6346585B2 JP6346585B2 (ja) 2018-06-20

Family

ID=57358392

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015077619A Active JP6346585B2 (ja) 2015-04-06 2015-04-06 操作支援装置、及びプログラム

Country Status (1)

Country Link
JP (1) JP6346585B2 (ja)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005115467A (ja) * 2003-10-03 2005-04-28 Vision Arts Kk 仮想オブジェクト操作プログラム
JP2005339266A (ja) * 2004-05-27 2005-12-08 Canon Inc 情報処理方法、情報処理装置、撮像装置
JP2006209664A (ja) * 2005-01-31 2006-08-10 Canon Inc システム、画像処理装置、情報処理方法
JP2012212345A (ja) * 2011-03-31 2012-11-01 Sony Corp 端末装置、オブジェクト制御方法及びプログラム
JP2014071812A (ja) * 2012-10-01 2014-04-21 Sony Corp 情報処理装置、表示制御方法及びプログラム
JP2014171918A (ja) * 2013-03-06 2014-09-22 Panasonic Corp 除湿装置
WO2014188798A1 (ja) * 2013-05-21 2014-11-27 ソニー株式会社 表示制御装置、表示制御方法および記録媒体
JP2016081408A (ja) * 2014-10-21 2016-05-16 株式会社コロプラ ヘッドマウントディスプレイとコントローラとを連動させて画面操作するシステム、プログラム、及び方法
WO2016148072A1 (ja) * 2015-03-17 2016-09-22 株式会社 コロプラ 没入型仮想空間でオブジェクト操作を制御するためのコンピュータ・プログラムおよびコンピュータ・システム

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005115467A (ja) * 2003-10-03 2005-04-28 Vision Arts Kk 仮想オブジェクト操作プログラム
JP2005339266A (ja) * 2004-05-27 2005-12-08 Canon Inc 情報処理方法、情報処理装置、撮像装置
JP2006209664A (ja) * 2005-01-31 2006-08-10 Canon Inc システム、画像処理装置、情報処理方法
JP2012212345A (ja) * 2011-03-31 2012-11-01 Sony Corp 端末装置、オブジェクト制御方法及びプログラム
JP2014071812A (ja) * 2012-10-01 2014-04-21 Sony Corp 情報処理装置、表示制御方法及びプログラム
JP2014171918A (ja) * 2013-03-06 2014-09-22 Panasonic Corp 除湿装置
WO2014188798A1 (ja) * 2013-05-21 2014-11-27 ソニー株式会社 表示制御装置、表示制御方法および記録媒体
JP2016081408A (ja) * 2014-10-21 2016-05-16 株式会社コロプラ ヘッドマウントディスプレイとコントローラとを連動させて画面操作するシステム、プログラム、及び方法
WO2016148072A1 (ja) * 2015-03-17 2016-09-22 株式会社 コロプラ 没入型仮想空間でオブジェクト操作を制御するためのコンピュータ・プログラムおよびコンピュータ・システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
永嶋 涼平: "ARオブジェクト操作用タッチパッドインタフェースにおける入力手法の検討", 日本バーチャルリアリティ学会論文誌, vol. 第19巻第2号, JPN6018018466, 30 June 2014 (2014-06-30), JP, ISSN: 0003800310 *

Also Published As

Publication number Publication date
JP6346585B2 (ja) 2018-06-20

Similar Documents

Publication Publication Date Title
US20220121344A1 (en) Methods for interacting with virtual controls and/or an affordance for moving virtual objects in virtual environments
US11678004B2 (en) Recording remote expert sessions
JP5900393B2 (ja) 情報処理装置、操作制御方法及びプログラム
JP6445515B2 (ja) 少なくとも2つの制御オブジェクトを用いて行われるジェスチャの検出
US9870058B2 (en) Control of a real world object user interface
WO2018098861A1 (zh) 用于虚拟现实设备的手势识别方法、装置及虚拟现实设备
KR20130108643A (ko) 응시 및 제스처 인터페이스를 위한 시스템들 및 방법들
US10733799B2 (en) Augmented reality sensor
US11373650B2 (en) Information processing device and information processing method
US10990240B1 (en) Artificial reality system having movable application content items in containers
US10359906B2 (en) Haptic interface for population of a three-dimensional virtual environment
US10488918B2 (en) Analysis of user interface interactions within a virtual reality environment
US20240203073A1 (en) Display terminal, display control system and display control method
US20120313968A1 (en) Image display system, information processing apparatus, display device, and image display method
CN109683729B (zh) 三维场景控制方法及装置
JP6374203B2 (ja) 表示システム及びプログラム
JP6346585B2 (ja) 操作支援装置、及びプログラム
US20230162450A1 (en) Connecting Spatially Distinct Settings
US20210294482A1 (en) Information processing device, information processing method, and program
US11570017B2 (en) Batch information processing apparatus, batch information processing method, and program
US20180275854A1 (en) Information processing apparatus, information processing method, and program
JP2015133637A (ja) 情報処理機器および操作システム
US20160041834A1 (en) Virtual Desktop Client, Control Chip for Virtual Desktop Client and Method for Controlling Server Device
JP2017199085A (ja) 情報処理装置、情報処理方法、およびプログラム
US20190369713A1 (en) Display control apparatus, display control method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170620

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180423

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180522

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180525

R150 Certificate of patent or registration of utility model

Ref document number: 6346585

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150