JP6174646B2 - 仮想空間内のオブジェクトを3軸操作するためのコンピュータ・プログラム - Google Patents

仮想空間内のオブジェクトを3軸操作するためのコンピュータ・プログラム Download PDF

Info

Publication number
JP6174646B2
JP6174646B2 JP2015186628A JP2015186628A JP6174646B2 JP 6174646 B2 JP6174646 B2 JP 6174646B2 JP 2015186628 A JP2015186628 A JP 2015186628A JP 2015186628 A JP2015186628 A JP 2015186628A JP 6174646 B2 JP6174646 B2 JP 6174646B2
Authority
JP
Japan
Prior art keywords
axis
computer program
area
virtual space
slide
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015186628A
Other languages
English (en)
Other versions
JP2017062559A (ja
Inventor
篤 猪俣
篤 猪俣
秀行 栗原
秀行 栗原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Colopl Inc
Original Assignee
Colopl Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Colopl Inc filed Critical Colopl Inc
Priority to JP2015186628A priority Critical patent/JP6174646B2/ja
Priority to US15/275,182 priority patent/US20170090716A1/en
Publication of JP2017062559A publication Critical patent/JP2017062559A/ja
Application granted granted Critical
Publication of JP6174646B2 publication Critical patent/JP6174646B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、コンピュータ・プログラムに関する。より詳細には、ユーザの直観的な入力操作により、仮想空間内に配置されたオブジェクトを3軸操作させるためのコンピュータ・プログラムに関するものである。
昨今、スマートフォンを用いたゲーム(以下、「スマートフォン・ゲーム」と称する。)や、ヘッドマウント・ディスプレイ(以下、「HMD」と称する。)を用いたゲームとして、3次元グラフィックを使用した3Dゲームが普及している。3Dゲームの中には、3次元仮想空間(ゲーム空間)内にオブジェクトが配置され、ユーザがオブジェクトを3次元的に操作可能とするものがある。例えば、オブジェクトへの3次元回転操作を伴う3Dゲーム等である。
通常、ユーザはコントローラを操作して、3次元空間内オブジェクトに操作命令を出す。コントローラには、専用のゲームコンソールやスマートフォンが含まれる。3Dゲームにおけるコントローラ操作は、平面的な2次元操作に制約されるのが通常である。平面的な2次元操作には、例えば、ゲームコンソールの場合は十時キーやジョイスティック等の操作、また、スマートフォンの場合はタッチパネルへのタッチ操作が含まれる。
特許文献1(特に、段落〔0093〕〜〔0095〕および図8b)に開示される従来技術では、機能「Rotation」が割り当てられた仮想プッシュ・スイッチを画面上に設けてユーザに操作させる。具体的には、仮想プッシュ・スイッチは、上下左右にそれぞれ三角マークが表示され、ユーザが上または下向きの三角マーク位置を押下したときは、水平軸を中心にオブジェクトを回転させる。また、ユーザが左または右向きの三角マーク位置を押下したときは、垂直軸を中心に回転させる。即ち、特許文献1に開示される従来技術では、2次元のユーザ操作を3次元空間内の2軸操作に関連付けている。
特開2013−171544号公報
従来技術における〔特許文献1〕の3次元仮想空間でのオブジェクト回転操作では、2軸のみでしかオブジェクトを操作できず、ユーザは意図した角度調整をスムーズに実施することは困難である。スムーズな角度調整を可能とするには、2軸ではなく、3軸操作を可能とすべきである。他方、従来の描画ソフトで3Dオブジェクトを描画するような場合は、通常、3軸回転に際して各軸に対応した回転角度をユーザに直接指定させる(例えば「30度」のようにユーザに数値を指定させる)。
そこで、本発明は、3次元仮想空間内のオブジェクトの3軸操作に際し、ユーザによる直観的な入力操作のためのインタフェースを提供することを目的とする。そして、当該インタフェース通じてオブジェクトの3軸操作命令を効率的に生成可能とするコンピュータ・プログラムを提供することを目的とする。
上記の課題を解決するために、本発明によれば、仮想空間内のオブジェクトを3軸操作するためのコンピュータ・プログラムであって、操作領域内に第1領域および第2領域を割り当てる領域割当部と、命令生成部であって、第1領域内の第1入力操作に応答して、仮想空間内の第1軸および第2軸に関するオブジェクトへの第1操作命令を生成し、第2領域内の第2入力操作に応答して、仮想空間内の第3軸に関するオブジェクトへの第2操作命令を生成する、命令生成部と、としてコンピュータに機能させる、コンピュータ・プログラムが得られる。
本発明の特徴点および利点は、後述する発明の詳細な説明、並びに添付の図面および特許請求の範囲の記載から明らかなものとなる。
図1は、本発明の実施の形態によるコンピュータ・プログラムを実行するためのユーザ端末の例として、携帯端末を示した模式図である。 図2は、図1の携帯端末の構成を模式的に示したブロック図である。 図3は、図2の携帯端末における入出力の概要を示したブロック図である。 図4は、3次元仮想空間内のオブジェクトの配置例を示した模式図である。 図5は、3次元仮想空間に配置され、仮想カメラからの視界に収容されるオブジェクトについて模式図である。 図6は、本発明の実施形態により、オブジェクトを3軸操作するためのユーザ操作の概要について示した模式図である。 図7は、本発明の実施の形態により、ユーザ端末を用いたユーザ操作に応答して、3次元仮想空間に配置されたオブジェクトを操作する一例の様子を示した模式図である。 図8は、タッチ操作およびオブジェクト操作命令の対応付けについて示したテーブルを示す。 図9は、本発明の実施の形態によるコンピュータ・プログラムを用いて実装されるユーザ操作命令を生成するための主要機能ブロック図である。 図10は、本発明の実施の形態によるコンピュータ・プログラムを用いて実装されるユーザ操作命令を生成するための処理フロー図である。 図11は、図10のステップS105に関する詳細な情報処理を示したフローチャートである。 図12は、本発明の実施の形態によるコンピュータ・プログラムを実行して、オブジェクト操作をユーザ端末に表示する第1実施例の概略イメージ図である。 図13は、第1実施例に関する機能ブロック図である。 図14は、第1実施例に関する処理フロー図である。 図15は、本発明の実施の形態によるコンピュータ・プログラムを実行して、オブジェクト操作をHMDに表示する第2実施例に関するシステム構成の概要図である。 図16は、第2実施例に関する概略イメージ図である 図17は、第2実施例に関する機能ブロック図である。 図18は、第2実施例に関する処理フロー図である。
[本発明の実施形態の説明]
最初に、本発明の実施形態の内容を列記して説明する。本発明の実施形態による仮想空間内のオブジェクトを3軸操作するためのコンピュータ・プログラムは、以下のような構成を備える。
(項目1)
仮想空間内のオブジェクトを3軸操作するためのコンピュータ・プログラムであって、
操作領域内に第1領域および第2領域を割り当てる領域割当部と、
命令生成部であって、
前記第1領域内の第1入力操作に応答して、前記仮想空間内の第1軸および第2軸に関する前記オブジェクトへの第1操作命令を生成し、
前記第2領域内の第2入力操作に応答して、前記仮想空間内の第3軸に関する前記オブジェクトへの第2操作命令を生成する、命令生成部と
としてコンピュータに機能させる、コンピュータ・プログラム。
本項目のコンピュータ・プログラムによれば、仮想空間内オブジェクトの3軸操作命令を効率的に生成可能とし、仮想空間内のオブジェクトの3軸操作に際し、ユーザによる直観的な入力操作を実現可能とする。特に、自由度の高いスムーズなオブジェクト操作を実現可能とする。また、効率的なゲーム進行が要求される3Dゲームにおいて、特に、数値の入力・指定操作の必要性を排除することができる。
(項目2)
項目1記載のコンピュータ・プログラムにおいて、
前記操作領域がタッチパネル上のタッチ領域であり、
前記第1入力操作および前記第2入力操作が前記タッチパネルへの第1タッチ操作および第2タッチ操作であり、
前記タッチパネルが前記コンピュータに具備される、コンピュータ・プログラム。
本項目のコンピュータ・プログラムによれば、ユーザの一本指によるタッチ入力操作を通じて仮想空間内のオブジェクトの3軸操作を実施可能とする。
(項目3)
項目2記載のコンピュータ・プログラムにおいて、
前記第1タッチ操作および前記第2タッチ操作がそれぞれスライド操作であり、
前記命令生成部において、前記第1操作命令および前記第2操作命令がそれぞれ、スライド距離に応じた回転量を有する、前記オブジェクトへの回転操作命令を含む、コンピュータ・プログラム。
本項目のコンピュータ・プログラムによれば、ユーザの一本指でのスライド操作を通じて、直観的で自由度の高い入力操作を実現可能とする。
(項目4)
項目3記載のコンピュータ・プログラムにおいて、
前記命令生成部において、前記第2操作命令が、前記仮想空間内でロール角に関する前記オブジェクトへの回転操作命令を含む、コンピュータ・プログラム。
本項目のコンピュータ・プログラムによれば、ロール角を中心としたオブジェクト回転操作を実現することにより、より自由度の高いスムーズな入力操作を可能とする。
(項目5)
前記命令生成部において、
前記第1操作命令が第1軸操作命令および第2軸操作命令を含み、
前記第1入力操作についての操作ベクトルを第1成分および第2成分に分解し、
前記第1軸操作命令が前記第1成分に基づいて生成されると共に、前記第2軸操作命令が前記第2成分に基づいて生成される、項目1から4のいずれか一項記載のコンピュータ・プログラム。
本項目のコンピュータ・プログラムによれば、操作ベクトルの分解を通じてより自由度の高いスムーズな入力操作を可能とする。
(項目6)
前記コンピュータが携帯端末であり、該携帯端末の長軸方向が上向きとなる状態が維持されたときに、
前記領域割当部において、前記第2領域が、前記操作領域の底部に、所与の面積比率を有するように割り当てられる、項目1から5のいずれか一項記載のコンピュータ・プログラム。
本項目のコンピュータ・プログラムによれば、第2操作領域の配置を工夫することにより、よりユーザフレンドリなユーザ入力を実現可能とする。
(項目7)
前記コンピュータが携帯端末であり、該携帯端末の長軸方向が横向きとなる状態が維持されたときに、
前記領域割当部において、前記第2領域が、前記操作領域の側部の一方に所与の面積比率を有するように割り当てられる、項目1から6のいずれか一項記載のコンピュータ・プログラム。
本項目のコンピュータ・プログラムによれば、第2操作領域の配置を工夫することにより、よりユーザフレンドリなユーザ入力を実現可能とする。
(項目8)
項目1から7のいずれか一項記載のコンピュータ・プログラムであって、更に、
前記第1操作命令および/または前記第2操作命令に応答して、前記第1操作命令および/または前記第2操作命令を実行し、前記仮想空間内に配置された前記オブジェクトを操作するオブジェクト操作部と、
前記コンピュータが備える表示部に表示するために、前記オブジェクトを配置した仮想空間画像を生成する画像生成部
として前記コンピュータに機能させる、コンピュータ・プログラム。
(項目9)
項目1から7のいずれか一項記載のコンピュータ・プログラムにおいて、
前記コンピュータがヘッドマウント・ディスプレイ(HMD)システムに通信により接続され、該HMDシステムが、
前記オブジェクトを収容した仮想空間画像を表示するHMDと、
前記HMDに接続されるHMD用コンピュータであって、
前記オブジェクトへの前記第1操作命令および/または前記第2操作命令を前記コンピュータから受信したのに応答して、前記第1操作命令および/または前記第2操作命令を実行し、前記仮想空間内に配置された前記オブジェクトを操作するオブジェクト操作部と、
前記HMD上に表示するために、前記オブジェクトを配置した前記仮想空間画像を生成する画像生成部と
を備える、HMD用コンピュータと
を備える、コンピュータ・プログラム。
[本発明の実施形態の詳細]
これより図面を参照して、本発明の実施形態による、仮想空間内のオブジェクトを3軸操作するためのコンピュータ・プログラムについて説明する。図中、同一の構成要素には同一の符号を付してある。本発明の実施形態によるUI画像表示のためのコンピュータ・プログラムは、主に、3Dゲームとしてのゲーム・プログラムの一部として適用可能である。また、これに限定されないが、ユーザ端末として、スマートフォンのような、タッチパネルを有する携帯端末を適用するのが好適であり、3Dゲームのコントローラとして使用可能である。
ユーザ端末概要
図1に示すスマートフォン1は、携帯端末の一例であり、タッチパネル2を備える。スマートフォンのユーザは当該タッチパネル2上でのユーザ操作(例えばタッチ操作)を介してオブジェクトの操作を制御することができる。
図2に示すように、スマートフォン1のようなユーザ端末は、互いにバス接続されたCPU3、主記憶4、補助記憶5、送受信部6、表示部7および入力部8を備える。このうち主記憶4は例えばDRAMなどで構成され、補助記憶5は例えばHDDなどで構成されている。補助記憶5は、本実施の形態によるコンピュータ・プログラムやゲーム・プログラムを記録可能な記録媒体である。補助記憶5に格納された各種プログラムは、主記憶4上に展開されてCPU3によって実行される。なお、主記憶4上には、CPU3が本発明の実施形態によるコンピュータ・プログラムに従って動作している間に生成したデータ、およびCPU3によって利用されるデータも一時的に格納される。送受信部6はCPU3の制御によりスマートフォン1とネットワークとの間の接続(無線接続および/または有線接続)を確立して各種情報の送受信を行う。表示部7は、CPUでの制御の下でユーザに提示することになる各種情報を表示する。入力部8は、ユーザのタッチパル2に対するタッチ入力操作を検知する。当該タッチ入力操作は物理的接触操作であり、例えば、タップ操作、フリック操作、スライド(スワイプ)操作、およびホールド操作等が含まれる。
表示部7及び入力部8は、上述したタッチパネル2に相当する。図3に示すように、タッチパネル2は、入力部8に相当するタッチセンシング部11と表示部7に相当する液晶表示部12とを有する。タッチパネル2は、CPU3による制御の下で、画像を表示して、スマートフォンのユーザによるインタラクティブなタッチ操作(タッチパネル2における物理的接触操作等)を受け付ける。タッチパネル2は、更に、制御部13での制御に基づいてそれに対応するグラフィックを液晶表示部12に表示する。
より詳細には、上記タッチセンシング部11は、ユーザによるタッチ操作に応じた操作信号を制御部13に出力する。タッチ操作は、何れの物体によるものとすることができ、例えば、ユーザの指によりなされてもよいし、スタイラス等を用いてもよい。また、タッチセンシング部11として、例えば、静電容量タイプのものを採用することができるが、これに限定されない。制御部13は、タッチセンシング部11からの操作信号を検出すると、例えば、操作信号を解釈して、3次元仮想空間内のオブジェクトへの操作命令を生成する。そして、当該オブジェクトへの操作命令を実施して、当該操作命令に応じたグラフィック(図示せず)を液晶表示部へ表示信号として送信する処理を行う。液晶表示部12は、表示信号に応じたグラフィックを表示する。勿論、制御部13は、上記処理の内の一部のみを実行するのでもよい。
本発明の実施形態によるコンピュータ・プログラムを実行するためのユーザ端末として、タッチパネルを有するスマートフォンを一例に説明した。しかしながら、ユーザ端末はこのようなスマートフォンに限定されない。これ以外にも、例えば、タッチパネルを備えるか否かに拘わらず、ゲームコンソール、PDA、タブレット型コンピュータなどのような携帯端末としてもよい。また、携帯端末以外にも通常のデスクトップPC(パーソナル・コンピュータ)のような任意の汎用コンピューティング・デバイスとしてもよい。
仮想空間内で3軸操作するオブジェクト操作命令の生成
図1に示したスマートフォン1の例を用いて、図4に示すように、3次元仮想空間内で円柱状のオブジェクトを3軸回転させるオブジェクト操作例について以下に説明する。図示するように、ユーザによって円柱状オブジェクト10が操作された結果、当該オブジェクト10は、3次元仮想空間の3軸に対して傾きを有して所定の位置に配置される。即ち、当該オブジェクトは3次元仮想空間において傾きに関連した角度情報および位置情報を有する。
3次元仮想空間は一般に、各々直交するXYZ座標系で定義することができる。図4の例では、オブジェクト10の位置を原点にしてXYZ座標が規定される。角度情報は、各軸回りの角度によって規定される。Z軸のマイナス方向に視点を配置して原点方向に視線を定めた場合は、通常、X軸を中心とした回転角はピッチ角、Y軸を中心とした回転角はヨー角、およびZ軸を中心とした回転角はロール角の回転方向と称される。
3次元仮想空間内に配置される円柱オブジェクトをユーザに出力する場合は、仮想カメラによって視界画像が生成され、表示部7(液晶表示部12)を通じて出力される。図5に例示するように、円柱オブジェクト10に対し、所定の距離および高さを有する位置に配置された視界カメラ50が3次元仮想空間に配置される。仮想カメラは、この例では、円柱オブジェクト10が視界の中心に配置されるように指向されて、視線および視界を決定すると共に、3次元空間画像を生成する。仮想カメラの位置、視線、および視界に相対的に基づいて、図4に示したXYZ座標系を3次元空間内に定義するのがよい。
図6に、本発明の実施形態により、仮想空間内のオブジェクトを3軸操作するための操作命令をユーザ端末(スマートフォン)で生成するための操作例について示す。図6の(1−a)および(2−a)のように、スマートフォンの操作領域、即ち、タッチパネル上のタッチ領域内に、2つの矩形領域、即ち領域(1)および領域(2)が割り当てられている。図6の(1−a)はスマートフォンを縦持ちした場合、(2−a)は横持ちした場合を示す。
図示のように、一実施形態では、領域(1)の方が領域(2)よりも占める面積が大きくなるように構成される。また、領域(1)が仮想空間に対する2軸(第1軸および第2軸)操作用の領域として構成される。そして、領域(2)が3軸目(第3軸)操作用の領域として構成される。これにより、タッチ領域でのユーザ操作を、仮想空間に対するオブジェクトの3軸操作に対応付けることが可能となる。なお、第1軸、第2軸、第3軸のセットは、例えば、図4で説明した、ピッチ角、ヨー角、ロール角を規定する回転軸のセットに如何なる組み合わせにも対応付けることができる。(軸の対応付けについては図7に後記する。)
図6ではタッチ操作をスライド操作として想定している。図6の(1−b)のように、領域(1)における上下方向のスライド操作(i)および左右方向のスライド操作(ii)は、第1軸および第2軸のオブジェクト操作に関連付けられる。また、領域(2)における左右方向のスライド操作(iii)は第3軸のオブジェクト操作に関連付けられる。なお、図6の(1−c)のように、領域(1)での斜め方向のスライド操作は、操作ベクトルとして複数の成分に分解される。そして、上下方向成分の操作ベクトルは第1軸のオブジェクト操作に、左右方向成分の操作ベクトルは第2軸のオブジェクト操作に関連付けられるように構成するのがよい。
図6の(2−b)の場合も同様であり、領域(1)における左右方向のスライド操作(i)および上下方向のスライド操作(ii)は、第1軸および第2軸のオブジェクト操作に関連付けられる。また、領域(2)における上下方向のスライド操作(iii)は第3軸のオブジェクト操作に関連付けられる。
特に領域(1)でのスライド操作の結果、スライド終了点が領域(1)を超えて領域(2)まで進入した場合でも、例外処理を行わずに上記オブジェクト操作処理を実施するのがよい。即ち、各領域はスライド操作の開始点(最初のタッチ点)に基づいて判定されるのがよい。
本発明の一実施形態によれば、図6に示したように、ユーザによる一本指のみでのスライド操作により、3次元仮想空間に配置したオブジェクトに対する3軸操作をスムーズに実施可能とする。また、効率的なゲーム進行が要求される3Dゲームにおいて、特に、数値の入力・指定操作の必要性を排除することができる。ユーザは、感覚的に領域(1)および領域(2)を認識すれさえすればよく、オブジェクトに対する直観的なユーザ指示を可能とする。ここでは、2つの領域(1),(2)は、自由に設定することができる。即ち、プログラム開発者によって決定されてもいいし、ユーザ自身がプログラム起動時に設定可能としてもよい。また、スマートフォンを縦持ちする(1−a)、横持ちする(2−a)と言ったそのときのユーザ状況に合わせて動的に変化させてもよい。なお、図6の(1−a)の縦持ちの状態とは、携帯端末の長軸方向が上向きとなる状態であり、図6の(2−a)の横持ちの状態とは、携帯端末の長軸方向が横向きとなる状態のことである。縦持ち状態のときは、領域(2)は、タッチ領域の底部に、所与の面積比率を有するように割り当てるとよい。また、横持ち状態のときは、領域(2)は、タッチ領域の左右側部の一方(図6の(2−a)では左側)に所与の面積比率を有するように割り当てるとよい。領域(2)に対する操作は、特にスマートフォンを保持した手の親指による操作として特に有効である。また、当該所与の面積比率は、大凡20%程度とするのが最適である。2つの領域(1),(2)の配置関係は上記に限定されず、任意の位置や形状での配置としてもよいし、また、領域の数も2つに限定されず3以上としてもよい。
また、図6ではスマートフォンを例に説明したが、本発明の実施形態はこれに限定されない。即ち、ユーザ端末として、タッチパネルを有する時計のようなウェアラブル端末、およびタッチパネルを有さない端末やPC(パーソナル・コンピュータ)のような汎用コンピュータを採用してもよい。例えばユーザ端末として、屋内に設置する通常のデスクトップPCを想定すると、この場合は、ディスプレイの表示領域が操作領域となる。即ち、ディスプレイの表示領域に対し、少なくとも2つの領域(領域(1)および領域(2))が割り当られる。そして、ユーザは、マウスを用いてドラッグ操作を実施して、オブジェクトを操作する。つまり、ユーザのマウスによるドラッグ操作に応答して、領域(1)においては仮想空間の第1軸および第2軸のオブジェクト操作を実施し、領域(2)においては第3軸のオブジェクト操作を実施するように構成することができる。
図7に、図6のスマートフォンの例での領域(1)および領域(2)への各スライド操作と、オブジェクト操作のための3次元仮想空間の3つの軸との対応付けについて説明する。一例として、領域(1)での縦方向のスライド操作(i)がx軸に、また、横方向のスライド操作(ii)がy軸に対応付けられる。更に、領域(2)での横方向のスライド操作(iii)がz軸に対応付けられる。図4を参照して先に説明したとおり、オブジェクト操作が回転操作の場合は、x,y,z軸は、視点をz軸マイナス方向とした場合、ピッチ角、ヨー角、ロール角方向の回転方向に対応する。各スライド操作と各軸との対応付けは、一例に過ぎず、如何なる軸の組み合わせとしてもよい。本発明者の実験によれば、領域(1)での縦方向のスライド操作(i)は、x軸を中心としたピッチ角方向のオブジェクト操作に対応付けるのが、ユーザ感覚に沿うものとなることが判明している。同様に、領域(1)での縦方向のスライド操作(ii)は、y軸を中心としたヨー角方向のオブジェクト操作に対応付けるのがよい。そして、領域(2)での横方向のスライド操作(iii)は、z軸を中心としたロール角方向のオブジェクト操作に対応付けるのがよい。なお、領域(1)での縦方向のスライド操作(ii)とy軸、および領域(2)での横方向のスライド操作(iii)とz軸の対応付けは、ユーザの好みに応じて設定変更可能とするのがよい。
図8を参照して、オブジェクト操作種別とユーザ端末操作の対応付けについて説明する。ユーザ端末操作について、ここでは、ユーザ端末がタッチパネルを有する場合のタッチ操作を想定する。タッチパネルでは、タッチ開始位置、タッチ終了位置、操作方向、および操作加速度等を検出する。これらのパラメータに応じて、タッチ操作として、タップ操作、フリック操作、スライド(スワイプ)操作、ホールド操作等を含めることができる。また、各タッチ操作の種別の特性に応じて、3次元空間内でのオブジェクト操作を関連付けることができる。例えば、図示するように、タップ操作に対しては、視界方向へのオブジェクト移動(即ち拡大/縮小処理)を関連付けるとよく、フリック操作に対しては、フリック方向(特にx,y方向)および速度に応じたオブジェクトの直線移動を関連付けるとよく、スライド操作に対しては、スライド距離に応じた3軸方向の回転処理(図7も参照)、そしてホールド操作に対しては、直前のオブジェクト操作を維持するといった具合である。これらの対応付けは、対応テーブルとしてメモリに格納するのがよい。なお、上記の、オブジェクト操作種別とユーザ端末操作の対応付けは例示に過ぎず、これに限定されない。
次に図9から図11を参照して、本発明の実施形態によるコンピュータ・プログラムにおいて、3次元仮想空間内のオブジェクトを3軸操作させるための操作命令を生成する情報処理について説明する。以下において、ユーザ端末としてタッチパネルを有するスマートフォンを想定するが、これに限定されない。
図9は、当該情報処理について、スマートフォンに機能させるための主要な機能セットに関するブロック図である。タッチパネルを通じたユーザ入力操作に対し、オブジェクト操作命令を生成するユーザ操作部100としてスマートフォンに機能させる。ユーザ操作部100は、図6の領域(1)および領域(2)のような領域を割り当てるための領域規割当部110、タッチパネルへのタッチ操作やデタッチ操作を判定する接触・非接触判定部130、タッチ操作位置に基づいて領域を判定するタッチ領域判定部150、スライド操作等のタッチ操作の種別を判定するタッチ操作決定部170、およびオブジェクト操作命令を生成する命令生成部190を含む。
命令生成部190は、タッチ操作決定部170によってタッチ操作がスライド操作と判定される場合に、スライド操作ベクトル(即ちスライド操作方向およびスライド操作距離)を決定する操作ベクトル決定部192、スライド操作ベクトルに対応する3次元空間の軸の対応付けを行う3次元空間軸決定部194、および3次元空間におけるオブジェクト操作量を決定するオブジェクト操作量決定部196を含む。
上記の機能ブロックのセットを用いて、図10および図11のフロー図に示す情報処理が実施される。図10において、ステップS101では、最初の準備段階として、領域割当部110において、操作領域(タッチパネル上のタッチ領域)内に領域(1)および領域(2)が割り当てられる(図6の(a−1)および(b−1)も参照)。当該動作は、プログラム実行時に設定されていればよく、例えばプログラム開発時に開発者によって設定されてもよいし、ユーザが初期設定時に設定しても何れでもよい。ステップS102では、接触・非接触判定部130によって、タッチ・スクリーンへの1または複数のタッチ操作・デタッチ操作の判定、並びにタッチ状態およびタッチ位置の判定処理が実施される。そして、当該ステップS102でタッチ操作が判定されると、次のステップS103以降へと進む。
ステップS103では、タッチ領域判定部150によって、上記ステップS102で判定されたタッチ操作が、領域(1)内でのものであるか、または領域(2)内でのものであるかを判定する。なお、タッチ操作がスライド操作の場合は、スライド開始点と終了点が異なる領域となることも想定されるが、ここではスライド開始点の位置のみで判定するのがよい。即ち、本実施形態では、領域を跨ぐスライド操作も許容可能である。
引き続きステップS104では、タッチ操作決定部170によってタッチ操作種別および対応するオブジェクト操作種別を決定する。図8に示したとおり、タッチ操作種別には、これに限定されないが、タップ操作、フリック操作、スライド(スワイプ)操作およびホールド操作等が含まれる。例えば、上記ステップS102において、接触・非接触判定部130がタッチ点およびデタッチ点を判定した場合は、当該タッチ操作はスライド操作であるとしてタッチ操作種別を決定する。また、タッチ操作種別が決定されると、タッチ操作決定部170は、メモリに格納された図8の対応テーブルにしたがって、オブジェクト操作種別も決定することができる。オブジェクト操作種別には、これに限定されないが、直線移動、回転移動、移動状態の維持等が含まれる。
ステップS103でタッチ操作領域が判定され、並びにステップS104でタッチ操作種別およびオブジェクト操作種別が決定されると、ステップS105に進む。ステップS105では、命令生成部190によって、タッチ操作に応じたオブジェクト操作命令が生成される。次の図11で詳述するように、例えば、図6の領域(1)でのタッチ操作に対しては、3次元仮想空間内の第1軸および第2軸に関するオブジェクト操作命令を生成する。同様に、図6の領域(2)でのタッチ操作に対しては、3次元仮想空間内の第3軸に関するオブジェクト操作命令を生成する。このように生成したオブジェクト操作命令に基づいて、図12以降の実施例で説明する3次元仮想空間でのオブジェクト操作処理が実施される。
図11は、図10のステップS105のオブジェクト操作命令生成処理について詳述したフロー図である。ここでは、タッチ操作としてスライド操作を、対応するオブジェクト操作として回転操作を想定する。先に図6を参照して概要を説明したように、オブジェクト操作命令は、スライド処理が領域(1)で行われたか(S201)または領域(2)で行われたか(S211)によって処理が分岐される。
スライド操作が領域(1)で行われた場合について説明する(図6の(1−c)も参照)。ステップS202では、操作ベクトル決定部192によって、スライド操作の操作ベクトルを決定する。即ち、スライド操作の方向および距離が決定される。更に、スライド操作ベクトルを、タッチパネルに対する縦方向および横方向に成分毎に分解する。そして、各成分毎に3次元空間の2つの軸が関連付けられて、当該軸に関連付けられる2つのオブジェクト操作命令が各々生成される。
具体的には、ステップS203では、3次元空間軸決定部194により、上記縦成分および横成分が3次元仮想空間のX軸およびY軸(図4も参照)に関連付けられる。そして、ステップS204では、オブジェクト操作量決定部196により、縦成分および横成分の各大きさ(即ち、成分毎のスライド距離)に基づいて、3次元仮想空間のX軸およびY軸を中心としたピッチ角およびヨー角の回転量を決定する。最終的に、ステップS205では、命令生成部190により、ピッチ角方向およびヨー角方向の回転量に基づいて、XY両軸に関する回転操作命令が生成される。具体的には、縦成分に基づいてX軸に関連する回転操作命令を、また、横成分に基づいてY軸に関連する回転操作命令が生成される。
ステップS211に戻り、スライド操作が領域(2)で行われた場合は、ステップS212に進み、3次元空間軸決定部194によって、スライド操作ベクトルが3次元仮想空間のZ軸(図4も参照)に関連付けられる。そして、ステップS213では、オブジェクト操作量決定部196により、スライド操作ベクトルの大きさ(即ち、スライド距離)に基づき、3次元仮想空間のZ軸を中心としたロール角の回転量を決定する。最終的に、ステップS214では、命令生成部190により、ロール角方向の回転量に基づいて、Z軸に関する回転操作命令が生成される。なお、スライド操作が領域(2)で行われた場合も、領域(1)と同様、スライド操作ベクトルを縦成分と横成分に分解して、横成分のみを使用してロール角の回転量を決定してもよい。
3次元仮想空間で回転させるオブジェクトの回転量は、上記のようにスライド距離に応じて決定するのがよいが、これに限定されない。他にも、スライド操作の速度や加速度を測定して回転量に反映してもよい。また、これらパラメータは、回転量以外にも、回転速度等を計算するのに利用可能である。
オブジェクト操作命令の実行および3次元仮想空間画像出力
上記図11までを通じて生成されたオブジェクト操作命令は、これより図12以降の2つの実施例を参照して説明するように、様々なコンピュータで実行することができる。当該コンピュータは、ユーザ操作を受け付けてオブジェクト操作命令を生成したコンピュータと同一のものとしてもよいし、異なるものとしてもよい。図12から図14は、ユーザ操作を受け付けてオブジェクト操作命令を生成したコンピュータが、引き続きオブジェクト操作命令を実行して表示する第1実施例を示す。他方、図15から図18は、ユーザ操作を受け付けてオブジェクト操作命令を生成したコンピュータとは異なるコンピュータが、オブジェクト操作命令を受けて実行および表示する第2実施例を示す。
図12は、タッチパネルを備えるスマートフォンにおいて、オブジェクト操作命令作成に引き続き、オブジェクト操作命令を実行および表示する第1実施例のイメージ図である。第1実施例では、ユーザによるスライド操作とオブジェクト回転操作が同じタッチパネルを通じてインタラクティブに実行される。即ち、ユーザは、タッチパネルを見ながら、必要に応じてスライド操作を直観的に行いつつ回転量を調整すればよいため、自由度の高いスムーズなオブジェクト操作が可能となる。他方、ユーザ端末として、スマートフォンではなく通常のPCを採用した場合は、ユーザはマウス操作をしながらディスプレイを見ることになる。この場合でも、ユーザはディスプレイに表示されるマウスカーソルを意識してドラッグ操作を直観的に行いながら、同じディスプレイに表示されたオブジェクトの回転量を調整することになる。この点、やはり自由度の高いスムーズなオブジェクト操作が可能となる。
第1実施例では、次の図13に示すように、ユーザ端末は、図9を参照して説明したユーザ操作部100に加えて、オブジェクト操作命令を実行するオブジェクト操作命令実行部120、3次元仮想空間画像を生成する画像生成部140、および3次元仮想空間画像を表示する画像表示部160を主要な機能ブロックとして有するように機能する。第1実施例では、ユーザ端末は、図13に示した機能ブロックを用いて、図14に示すフロー図に基づく情報処理を実行する。そして、オブジェクト操作を実施するには、ステップS301のように、最初に操作対象オブジェクトが特定されることが必要である。詳細な説明は省略するが、オブジェクト特定態様の一例としては、ユーザがタッチ操作を通じて、3次元仮想空間内の複数のオブジェクトから特定オブジェクトを選択する等が想定される。なお、本発明では、オブジェクトの特定の態様は何れのものでもよい。
ステップS301で操作対象オブジェクトが特定されると、ステップS302では、ユーザ入力操作を受けて、図11までを参照して先に説明してきたオブジェクト操作命令が生成される。これに応じて、ステップS303では、オブジェクト操作命令実行部120によって、オブジェクト操作命令が実行される。即ち、領域(1)の操作命令および/または領域(2)の操作命令を受け付けて、これら操作命令を実行し、3次元仮想空間内に配置されたオブジェクトを操作する。次いで、ステップS304で、画像生成部140によって、オブジェクト操作結果に基づく3次元仮想空間画像を生成すると共に、画像表示部160によって出力処理が実施されタッチパネルに表示される。
次に、別の第2実施例として、オブジェクト操作命令を生成したコンピュータとは異なるコンピュータを備えるHMDシステムによって、オブジェクト操作命令が実行され、3次元仮想空間画像をHMDに表示する例を説明する。まず、図15を参照して本実施例で用いるHMDシステム500の全体概略について説明する。図示のように、HMDシステム500は、オブジェクトを収容した仮想空間画像を表示するためのHMD本体510、および該HMD本体510に接続され、オブジェクト操作命令を実行するためのHMD用コンピュータ520を含む。HMD用コンピュータ520は汎用コンピュータを用いて構成することができる。また、HMDシステム500は、ユーザ操作を受け、オブジェクト操作命令を生成するスマートフォン等のユーザ端末1に通信により接続される。
HMD510は、ディスプレイ512およびセンサ514を具備する。ディスプレイ112は、一例として、ユーザの視界を完全に覆うよう構成された非透過型の表示装置とすることができ、ユーザはディスプレイ512に表示される画面のみを観察することができる。そして、非透過型のHMD510を装着したユーザは、外界の視界を全て失うため、HMD用コンピュータ520において実行されるアプリケーションにより表示される仮想空間に完全に没入する表示態様となる。HMD510が具備するセンサ514は、ディスプレイ512近辺に固定される。センサ514は、地磁気センサ、加速度センサ、および/または傾き(角速度、ジャイロ)センサを含み、これらの1つ以上を通じて、ユーザの頭部に装着されたHMD510(ディスプレイ112)の各種動きを検知することができる。
図16は、HMDシステム500が携帯端末1と通信して、オブジェクト操作命令を受け、オブジェクト操作命令を実行および表示するイメージ図である。HMDコンピュータ520は、視界画像として2次元画像を左目用と右目用の2つをずらした形態で生成する。ユーザはHMD510を通じてこれら2つの画像を重畳して見ることになるため、ユーザには3次元画像のようにHMD510に表示される。図16の画面イメージでは、画面中央に「積み木オブジェクト」が配置されるよう仮想カメラがセットされる。ユーザは、携帯端末をタッチ操作しながら当該「積み木オブジェクト」を所与の角度に傾けることができる(図5も参照)。
第2実施例では、HMDを装着して3次元仮想空間に没入状態にあるユーザは、自ら操作しているタッチパネルを見ることなく、直観的にタッチ操作を行いながら、HMDに表示されたオブジェクトを操作することになる。しかしながら、本発明の実施形態による仮想空間内のオブジェクトを3軸操作するためのコンピュータ・プログラムでは、ユーザは、領域(1)と領域(2)を感覚的に把握さえすれば、簡易かつ適切なタッチ操作によって回転量の調整ができる。このため、ユーザにとって、直観的で自由度の高いスムーズなオブジェクト操作が可能となる。
第2実施例では、図17に示すように、ユーザ端末1が、図9を参照して説明したユーザ操作部100として機能する。他方、HMDシステム500が、オブジェクト操作命令を実行するオブジェクト操作命令実行部531、3次元仮想空間画像を生成する画像生成部533、および3次元仮想空間画像を表示する画像表示部535を主要な機能ブロックとして有するように機能する。HMDシステム500はまた、HMDを装着したユーザの動きを検出するための動き検出部541、仮想カメラからの視界を決定する視界決定部543、および3次元空間全体の画像を生成するための視界画像生成部545としても機能する。第2実施例では、携帯端末1は、図17に示した機能ブロックを用いて、図18に示すフロー図に基づく情報処理を実行する。当該情報処理は、ユーザ端末1およびHMDシステム500の通信により相互作用しながら実施される。
ステップS520−1では、HMD510に搭載されたセンサを用いた動き検出部541により、HMDの動き(例えば傾き)を検出する。これを受けて、ステップS530−1では、HMD用コンピュータ530の視界決定部543によって、仮想空間の視界情報を決定する。また、ステップS530−2では、視界画像生成部545によって、視界情報に基づいて視界画像を生成する(図5も参照)。生成された視界画像に基づいて、ステップS520−2では、HMD510を通じて視界画像が出力される。HMDを装着したユーザが首を傾ける等の動作を行うことにより、HMD530では、ステップS530−3で操作対象のオブジェクトを特定する。なお、本発明では、オブジェクトの特定の態様は上記のHMD動作に限らず、何れのものでもよい。
ステップS530−3で操作対象オブジェクトが特定されると、ステップS510−1では、ユーザによる入力操作を受けて、図11までを参照して先に説明してきたオブジェクト操作命令が生成される。これに応じて、ステップS530−4では、HMD用コンピュータ530のオブジェクト操作命令実行部531によって、3次元仮想空間内でのオブジェクト操作命令が実行される。即ち、領域(1)の操作命令および/または領域(2)の操作命令を受け付けて、これら操作命令を実行し、3次元仮想空間内に配置されたオブジェクトを操作する。次いで、ステップS530−5では、画像生成部533によって、オブジェクト操作結果に基づく3次元仮想空間画像を生成する。この際、視界画像生成部545からの3次元仮想空間画像と操作オブジェクト画像を重畳させて、3次元仮想空間全体画像とする。そして、ステップS530−3では、画像表示部535によって3次元仮想空間全体画像の出力処理が実施され、HMD510に表示される。
本発明の実施形態による、仮想空間内のオブジェクトを3軸操作するためのコンピュータ・プログラムによれば、仮想空間内オブジェクトの3軸操作命令を効率的に生成可能とする。仮想空間内のオブジェクトの3軸操作に際し、ユーザによる直観的な入力操作を実現可能とする。特に、自由度の高いスムーズなオブジェクト操作を実現可能とする。また、効率的なゲーム進行が要求される3Dゲームにおいて、特に、数値の入力・指定操作の必要性を排除することができる。
以上、本発明の実施形態による、仮想空間内のオブジェクトを3軸操作するためのコンピュータ・プログラムについて幾らかの例示と共に説明した。上述した実施の形態は、本発明の理解を容易にするための例示に過ぎず、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良することができると共に、本発明にはその均等物が含まれることは言うまでもない。

Claims (6)

  1. 仮想空間内のオブジェクトを3軸操作するためのコンピュータ・プログラムであって、
    タッチパネル上の操作領域内に第1領域および第2領域を割り当てる領域割当部と、
    命令生成部であって、
    前記第1領域に関する第1スライド操作に応答して、前記仮想空間内の第1軸および第2軸に関する前記オブジェクトへの第1操作命令を生成し、
    前記第2領域に関する第2スライド操作に応答して、前記仮想空間内の第3軸に関する前記オブジェクトへの第2操作命令を生成する、
    命令生成部と
    として前記タッチパネルを備えるコンピュータに機能させ、
    前記第1スライド操作の第1スライド開始点が前記第1領域内にある場合に、前記第1スライド操作が前記第1領域に関連付けられ、
    前記第1操作命令が、前記第1スライド開始点からの第1スライド距離に少なくとも基づき、
    前記第2操作命令が、前記第2スライド操作の第2スライド開始点からの、前記第1領域および前記第2領域における特定成分の第2スライド距離に応じた回転量を有する、前記オブジェクトへの第2回転操作命令を含み、
    前記コンピュータがヘッドマウント・ディスプレイ(HMD)システムに通信により接続され、該HMDシステムが、
    前記オブジェクトを収容した仮想空間画像を表示する非透過型のHMDと、
    前記HMDに接続されるHMD用コンピュータであって、
    前記オブジェクトへの前記第1操作命令および/または前記第2操作命令を前記コンピュータから受信したのに応答して、前記第1操作命令および/または前記第2操作命令を実行し、前記仮想空間内に配置された前記オブジェクトを操作するオブジェクト操作部と、
    前記HMD上に表示するために、前記オブジェクトを配置した前記仮想空間画像を生成する画像生成部と、
    を備える、HMD用コンピュータと、を備える、コンピュータ・プログラム。
  2. 請求項1記載のコンピュータ・プログラムにおいて、
    前記第1操作命令が、前記第1スライド距離に応じた回転量を有する、前記オブジェクトへの第1回転操作命令を含む、
    コンピュータ・プログラム。
  3. 請求項2記載のコンピュータ・プログラムにおいて、
    前記第2回転操作命令が、前記仮想空間内でロール角に関する前記オブジェクトへの回転命令を含む、コンピュータ・プログラム。
  4. 請求項1から3のいずれか一項記載のコンピュータ・プログラムにおいて、
    前記第1操作命令が第1軸操作命令および第2軸操作命令を含み、
    前記第1スライド操作についての操作ベクトルを第1成分および第2成分に分解し、
    前記第1軸操作命令が前記第1成分に基づいて生成されると共に、前記第2軸操作命令が前記第2成分に基づいて生成される、コンピュータ・プログラム。
  5. 請求項1から4のいずれか一項記載のコンピュータ・プログラムにおいて、
    前記コンピュータが携帯端末であり、該携帯端末の長軸方向が上向きとなる状態が維持されたときに、
    前記領域割当部において、前記第2領域が、前記操作領域の底部に、所与の面積比率を有するように割り当てられる、コンピュータ・プログラム。
  6. 請求項1から5のいずれか一項記載のコンピュータ・プログラムにおいて、
    前記コンピュータが携帯端末であり、該携帯端末の長軸方向が横向きとなる状態が維持されたときに、
    前記領域割当部において、前記第2領域が、前記操作領域の側部の一方に所与の面積比率を有するように割り当てられる、コンピュータ・プログラム。
JP2015186628A 2015-09-24 2015-09-24 仮想空間内のオブジェクトを3軸操作するためのコンピュータ・プログラム Active JP6174646B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015186628A JP6174646B2 (ja) 2015-09-24 2015-09-24 仮想空間内のオブジェクトを3軸操作するためのコンピュータ・プログラム
US15/275,182 US20170090716A1 (en) 2015-09-24 2016-09-23 Computer program for operating object within virtual space about three axes

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015186628A JP6174646B2 (ja) 2015-09-24 2015-09-24 仮想空間内のオブジェクトを3軸操作するためのコンピュータ・プログラム

Publications (2)

Publication Number Publication Date
JP2017062559A JP2017062559A (ja) 2017-03-30
JP6174646B2 true JP6174646B2 (ja) 2017-08-02

Family

ID=58409291

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015186628A Active JP6174646B2 (ja) 2015-09-24 2015-09-24 仮想空間内のオブジェクトを3軸操作するためのコンピュータ・プログラム

Country Status (2)

Country Link
US (1) US20170090716A1 (ja)
JP (1) JP6174646B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10607409B2 (en) * 2016-07-19 2020-03-31 The Boeing Company Synthetic geotagging for computer-generated images
EP3273707B1 (en) * 2016-07-20 2019-10-16 Deutsche Telekom AG Method and system for displaying location specific content by a head mounted display device
US20190391391A1 (en) * 2018-06-21 2019-12-26 Magic Leap, Inc. Methods and apparatuses for providing input for head-worn image display devices
JP6924799B2 (ja) * 2019-07-05 2021-08-25 株式会社スクウェア・エニックス プログラム、画像処理方法及び画像処理システム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5019809A (en) * 1988-07-29 1991-05-28 University Of Toronto Innovations Foundation Two-dimensional emulation of three-dimensional trackball
JP4143590B2 (ja) * 2004-10-28 2008-09-03 任天堂株式会社 3次元画像処理装置、ゲーム装置、3次元画像処理プログラムおよびゲームプログラム
JP2007087324A (ja) * 2005-09-26 2007-04-05 Jtekt Corp タッチパネル装置
KR100791287B1 (ko) * 2005-10-26 2008-01-04 삼성전자주식회사 그래픽 객체의 3차원 동작을 제어하는 장치 및 방법
US20100177053A2 (en) * 2008-05-09 2010-07-15 Taizo Yasutake Method and apparatus for control of multiple degrees of freedom of a display
JP5606669B2 (ja) * 2008-07-16 2014-10-15 任天堂株式会社 3次元パズルゲーム装置、ゲームプログラム、3次元パズルゲームシステムおよびゲーム制御方法
JP2013125247A (ja) * 2011-12-16 2013-06-24 Sony Corp ヘッドマウントディスプレイ及び情報表示装置
JP6271858B2 (ja) * 2012-07-04 2018-01-31 キヤノン株式会社 表示装置及びその制御方法
JP6267418B2 (ja) * 2012-09-25 2018-01-24 任天堂株式会社 情報処理装置、情報処理システム、情報処理方法、及び情報処理プログラム
JP5924325B2 (ja) * 2013-10-02 2016-05-25 コニカミノルタ株式会社 入力装置、情報処理装置、入力装置の制御方法、および、当該制御方法をコンピューターに実行させるためのプログラム
JP6530160B2 (ja) * 2013-11-28 2019-06-12 京セラ株式会社 電子機器
JP2014241602A (ja) * 2014-07-24 2014-12-25 京セラ株式会社 携帯端末、ロック状態制御プログラムおよびロック状態制御方法
US10101803B2 (en) * 2015-08-26 2018-10-16 Google Llc Dynamic switching and merging of head, gesture and touch input in virtual reality

Also Published As

Publication number Publication date
JP2017062559A (ja) 2017-03-30
US20170090716A1 (en) 2017-03-30

Similar Documents

Publication Publication Date Title
EP3997552B1 (en) Virtual user interface using a peripheral device in artificial reality environments
US10241582B2 (en) Information processing device, information processing method, and program for graphical user interface
US10290155B2 (en) 3D virtual environment interaction system
US9721396B2 (en) Computer and computer system for controlling object manipulation in immersive virtual space
US9250799B2 (en) Control method for information input device, information input device, program therefor, and information storage medium therefor
US20140075370A1 (en) Dockable Tool Framework for Interaction with Large Scale Wall Displays
US10475251B2 (en) Method and apparatus for multiple mode interface
JP2024009171A (ja) ヘッドマウントディスプレイ装置
AU2015241900A1 (en) User interface program and game program
JP2013214252A (ja) 表示制御システム、表示制御方法、表示制御プログラム、および表示制御装置
JP6174646B2 (ja) 仮想空間内のオブジェクトを3軸操作するためのコンピュータ・プログラム
JP6110893B2 (ja) 仮想空間位置指定方法、プログラム、プログラムを記録した記録媒体、および、装置
KR20130131122A (ko) 휴대용 전자 기기를 이용한 3차원 가상 커서 제어 방법
JP2013029958A (ja) 情報処理装置、情報処理方法、及びプログラム
US11055926B2 (en) Method and apparatus for multiple mode interface
JP6386897B2 (ja) 電子黒板、情報処理プログラムおよび情報処理方法
JP6549066B2 (ja) 没入型仮想空間でオブジェクト操作を制御するためのコンピュータ・プログラムおよびコンピュータ・システム
US8836642B2 (en) Information processing device, program, and information processing method
CN107111930B (zh) 显示装置及其控制方法
US20200285325A1 (en) Detecting tilt of an input device to identify a plane for cursor movement
JP6133344B2 (ja) ヘッドマウントディスプレイへ表示するためのユーザインタフェース表示方法、及びプログラム
JP5815577B2 (ja) 情報共有支援装置
JP2017021466A (ja) ユーザ入力支援のためのコンピュータ・プログラム
JP2020077365A (ja) 画像表示システム、オペレーティングシステムおよび画像表示システムの制御方法
JP2016076017A (ja) 図形処理装置および図形処理プログラム

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20161003

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20161221

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20170127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170331

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170706

R150 Certificate of patent or registration of utility model

Ref document number: 6174646

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250