JP2021068057A - プログラム、コンピュータ装置、及び制御方法 - Google Patents

プログラム、コンピュータ装置、及び制御方法 Download PDF

Info

Publication number
JP2021068057A
JP2021068057A JP2019191467A JP2019191467A JP2021068057A JP 2021068057 A JP2021068057 A JP 2021068057A JP 2019191467 A JP2019191467 A JP 2019191467A JP 2019191467 A JP2019191467 A JP 2019191467A JP 2021068057 A JP2021068057 A JP 2021068057A
Authority
JP
Japan
Prior art keywords
user
virtual space
reference point
dimensional virtual
sight
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019191467A
Other languages
English (en)
Other versions
JP6829298B1 (ja
Inventor
慶 牟田
Kei Muta
慶 牟田
慧 小田切
Satoshi Odagiri
慧 小田切
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Square Enix Co Ltd
Original Assignee
Square Enix Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Square Enix Co Ltd filed Critical Square Enix Co Ltd
Priority to JP2019191467A priority Critical patent/JP6829298B1/ja
Priority to US17/033,716 priority patent/US20210117070A1/en
Application granted granted Critical
Publication of JP6829298B1 publication Critical patent/JP6829298B1/ja
Publication of JP2021068057A publication Critical patent/JP2021068057A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/422Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle automatically for the purpose of assisting the player, e.g. automatic braking in a driving game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/426Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • A63F13/5372Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for tagging characters, objects or locations in the game scene, e.g. displaying a circle under the character controlled by the player
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】ユーザの操作性を向上させるプログラムを提供する。【解決手段】入力装置を介して指定された、生成された画像上の位置と、撮像された画像上のオブジェクトの位置とが所定の関係にあり、且つ、基準点と前記オブジェクトとの間に、該基準点からの視線を遮る障害オブジェクトが存在しない場合に、選択可能なオブジェクトとして判断する。【選択図】 図2

Description

本発明は、プログラム、コンピュータ装置、及び制御方法に関する。
従来、マウス等の入力装置を介して指定された位置に対応する、仮想空間内のオブジェクトを選択するプログラムがある。また、ユーザが所定のキーを押下すると、予め定められた順序にしたがって、選択するオブジェクトを切り替えるプログラムもある。
しかし、オブジェクトが仮想空間内を動き回る場合に、移動するオブジェクトを指定することが難しかった。また、所定の順序にしたがってオブジェクトを切り替える場合には、オブジェクトの数が多いと、ユーザが選択したいオブジェクトを選択するまでに時間がかかり、ユーザは不便を感じていた。
本発明の少なくとも1つの実施の形態の目的は、ユーザの操作性を向上させるプログラムを提供することである。
非限定的な観点によると、本発明に係るプログラムは、入力装置を備えるコンピュータ装置において実行されるプログラムであって、コンピュータ装置を、三次元仮想空間内を仮想カメラにより撮像した画像を生成する画像生成手段、ユーザにより入力装置を介して指定された、生成された画像上の位置を取得する位置取得手段、三次元仮想空間内のオブジェクトの生成された画像上の位置が、位置取得手段において取得された位置と所定の関係にあるか否かを判定する第一判定手段、三次元仮想空間内において、基準点と前記オブジェクトとの間に、該基準点からの視線を遮る障害オブジェクトが存在するか否かを判定する第二判定手段、第一判定手段により所定の関係にあると判定され、且つ、第二判定手段により障害オブジェクトが存在しないと判定されたオブジェクトを、ユーザにより選択可能なオブジェクトとして設定する設定手段として機能させるプログラムである。
非限定的な観点によると、本発明に係るコンピュータ装置は、入力装置を備えるコンピュータ装置であって、三次元仮想空間内を仮想カメラにより撮像した画像を生成する画像生成手段と、ユーザにより入力装置を介して指定された、生成された画像上の位置を取得する位置取得手段と、三次元仮想空間内のオブジェクトの生成された画像上の位置が、位置取得手段において取得された位置と所定の関係にあるか否かを判定する第一判定手段と、三次元仮想空間内において、基準点と前記オブジェクトとの間に、該基準点からの視線を遮る障害オブジェクトが存在するか否かを判定する第二判定手段と、第一判定手段により所定の関係にあると判定され、且つ、第二判定手段により障害オブジェクトが存在しないと判定されたオブジェクトを、ユーザにより選択可能なオブジェクトとして設定する設定手段とを備えるコンピュータ装置である。
非限定的な観点によると、本発明に係る制御方法は、入力装置を備えるコンピュータ装置における制御方法であって、三次元仮想空間内を仮想カメラにより撮像した画像を生成する画像生成手段と、ユーザにより入力装置を介して指定された、生成された画像上の位置を取得する位置取得手段と、三次元仮想空間内のオブジェクトの生成された画像上の位置が、位置取得手段において取得された位置と所定の関係にあるか否かを判定する第一判定手段と、三次元仮想空間内において、基準点と前記オブジェクトとの間に、該基準点からの視線を遮る障害オブジェクトが存在するか否かを判定する第二判定手段と、第一判定手段により所定の関係にあると判定され、且つ、第二判定手段により障害オブジェクトが存在しないと判定されたオブジェクトを、ユーザにより選択可能なオブジェクトとして設定する設定手段とを有する制御方法である。
本発明の各実施形態により1または2以上の不足が解決される。
本発明の実施の形態の少なくとも1つに対応する、コンピュータ装置の構成を示すブロック図である。 本発明の実施の形態の少なくとも1つに対応する、プログラム実行処理のフローチャートである。 本発明の実施の形態の少なくとも1つに対応する、コンピュータ装置の構成を示すブロック図である。 本発明の実施の形態の少なくとも1つに対応する、コンピュータ装置の構成を示すブロック図である。 本発明の実施の形態の少なくとも1つに対応する、プログラム実行画面の例を表す図である。 本発明の実施の形態の少なくとも1つに対応する、コンピュータ装置の構成を示すブロック図である。 本発明の実施の形態の少なくとも1つに対応する、プログラム実行処理のフローチャートである。 本発明の実施の形態の少なくとも1つに対応する、コンフィグ画面の例を表すである。 本発明の実施の形態の少なくとも1つに対応する、視線の遮断を説明する概念図である。 本発明の実施の形態の少なくとも1つに対応する、視線の遮断を説明する概念図である。 本発明の実施の形態の少なくとも1つに対応する、サーバ装置の構成を示すブロック図である。 本発明の実施の形態の少なくとも1つに対応する、プログラム実行処理のフローチャートである。 本発明の実施の形態の少なくとも1つに対応する、システムの構成を示すブロック図である。 本発明の実施の形態の少なくとも1つに対応する、実行処理のフローチャートである。 本発明の実施の形態の少なくとも1つに対応する、端末装置の構成を示すブロック図である。 本発明の実施の形態の少なくとも1つに対応する、プログラム実行処理のフローチャートである。 本発明の実施の形態の少なくとも1つに対応する、システムの構成を示すブロック図である。 本発明の実施の形態の少なくとも1つに対応する、サーバ装置の構成を示すブロック図である。 本発明の実施の形態の少なくとも1つに対応する、システムの構成を示すブロック図である。 本発明の実施の形態の少なくとも1つに対応する、実行処理のフローチャートである。
以下、添付図面を参照して、本発明の実施の形態について説明する。以下、効果に関する記載は、本発明の実施の形態の効果の一側面であり、ここに記載するものに限定されない。また、以下で説明するフローチャートを構成する各処理の順序は、処理内容に矛盾や不整合が生じない範囲で順不同である。
[第一の実施の形態]
本発明の第一の実施の形態の概要について説明をする。以下では、第一の実施の形態として、入力装置を備えるコンピュータ装置において実行されるプログラムを例示して説明をする。
図1は、本発明の実施の形態の少なくとも1つに対応する、コンピュータ装置の構成を示すブロック図である。コンピュータ装置1は、画像生成部101、位置取得部102、第一判定部103、第二判定部104、及び設定部105を少なくとも備える。
画像生成部101は、三次元仮想空間内を仮想カメラにより撮像した画像を生成する機能を有する。位置取得部102は、ユーザにより入力装置を介して指定された、生成された画像上の位置を取得する機能を有する。
第一判定部103は、三次元仮想空間内のオブジェクトの生成された画像上の位置が、位置取得部102において取得された位置と所定の関係にあるか否かを判定する機能を有する。第二判定部104は、三次元仮想空間内において、基準点と前記オブジェクトとの間に、該基準点からの視線を遮る障害オブジェクトが存在するか否かを判定する機能を有する。
設定部105は、第一判定部103により所定の関係にあると判定され、且つ、第二判定部104により障害オブジェクトが存在しないと判定されたオブジェクトを、ユーザにより選択可能なオブジェクトとして設定する機能を有する。
次に、本発明の第一の実施の形態におけるプログラム実行処理について説明する。図2は、本発明の実施の形態の少なくとも1つに対応する、プログラム実行処理のフローチャートである。
コンピュータ装置1は、三次元仮想空間内を仮想カメラにより撮像した画像を生成する(ステップS1)。次に、コンピュータ装置1は、ユーザにより入力装置を介して指定された、生成された画像上の位置を取得する(ステップS2)。
次に、コンピュータ装置1は、三次元仮想空間内のオブジェクトの生成された画像上の位置が、ステップS2において取得された位置と所定の関係にあるか否かを判定する(ステップS3)。次に、コンピュータ装置1は、三次元仮想空間内において、基準点と前記オブジェクトとの間に、該基準点からの視線を遮る障害オブジェクトが存在するか否かを判定する(ステップS4)。
次に、コンピュータ装置1は、第一判定部103により所定の関係にあると判定され、且つ、第二判定部104により障害オブジェクトが存在しないと判定されたオブジェクトを、ユーザにより選択可能なオブジェクトとして設定し(ステップS5)、終了する。
第一の実施の形態の一側面として、ユーザの操作性を向上させることができる。
第一の実施の形態において、「入力装置」とは、例えば、コンピュータ装置やプログラムにデータ、情報、指示等を与えるための装置をいう。「コンピュータ装置」とは、例えば、携帯電話、スマートフォン、タブレットコンピュータ、パーソナルコンピュータ、携帯型ゲーム機、据置型ゲーム機、又はウェアラブル型端末等、プログラムの実行処理を可能なものをいう。
第一の実施の形態において、「三次元仮想空間」とは、例えば、コンピュータにより定義された三次元の空間をいい、より具体的には、プログラムにより描画された三次元空間や、現実世界を撮像した画像を用いて構成される空間を含むものである。「オブジェクト」とは、例えば、仮想空間を構成する物体をいい、具体的には、キャラクタ、乗り物、武器、防具、アイテム、アバター、宝箱などの配置物等が挙げられる。「画像上の位置」とは、例えば、仮想カメラにより撮像された画像を平面とした座標系における座標をいう。
第一の実施の形態において、「基準点」とは、例えば、三次元仮想空間内の基準となる点をいい、オブジェクトの少なくとも一部を構成する点と結ぶものをいう。「仮想カメラの視線」とは、例えば、仮想空間を撮像する、仮想カメラの視軸をいう。「視線を遮る」とは、例えば、仮想カメラの視点から被写体となるオブジェクトまでを結ぶ直線上に、不透明なオブジェクトが存在することをいう。「不透明」とは、例えば、物理的に物を通さないことをいい、物には物体だけでなく、光も含む概念である。
[第二の実施の形態]
次に、本発明の第二の実施の形態の概要について説明をする。以下では、第二の実施の形態として、入力装置を備えるコンピュータ装置において実行されるプログラムを例示して説明をする。
第二の実施の形態におけるコンピュータ装置の構成は、図1のブロック図に示されるものを必要な範囲で採用することができる。また、第二の実施の形態におけるプログラム実行処理のフローチャートは、図2のフローチャートに示されるものを必要な範囲で採用することができる。
第二の実施の形態において、第二判定部104における基準点は、三次元仮想空間内を撮像する仮想カメラの視点であることが好ましい。
第二の実施の形態の一側面として、ユーザの操作性を向上させることができる。
第二の実施の形態の一側面として、第二判定部104における基準点が、三次元仮想空間内を撮像する仮想カメラの視点であることで、撮像された画像において視認可能なオブジェクトのみ選択でき、ユーザは直感的に操作が可能になり、操作性を向上させることができる。
第二の実施の形態において、「入力装置」、「コンピュータ装置」、「三次元仮想空間」、「オブジェクト」、「画像上の位置」、「基準点」、「仮想カメラの視線」、及び「視線を遮る」は、それぞれ第一の実施の形態において記載した内容を必要な範囲で採用できる。
[第三の実施の形態]
次に、本発明の第三の実施の形態の概要について説明をする。以下では、第三の実施の形態として、入力装置を備えるコンピュータ装置において実行されるプログラムを例示して説明をする。
図3は、本発明の実施の形態の少なくとも1つに対応する、コンピュータ装置の構成を示すブロック図である。コンピュータ装置1は、属性記憶部111、画像生成部112、位置取得部113、第一判定部114、第二判定部115、及び設定部116を少なくとも備える。
属性記憶部111は、三次元仮想空間内のオブジェクトの選択の可又は不可を示す、オブジェクト毎の属性を記憶する機能を有する。画像生成部112は、三次元仮想空間内を仮想カメラにより撮像した画像を生成する機能を有する。位置取得部113は、ユーザにより入力装置を介して指定された、生成された画像上の位置を取得する機能を有する。
第一判定部114は、三次元仮想空間内のオブジェクトの生成された画像上の位置が、位置取得部113において取得された位置と所定の関係にあるか否かを判定する機能を有する。第二判定部115は、三次元仮想空間内において、基準点と前記オブジェクトとの間に、該基準点からの視線を遮る障害オブジェクトが存在するか否かを判定する機能を有する。
設定部116は、第一判定部114により所定の関係にあると判定され、且つ、第二判定部115により障害オブジェクトが存在しないと判定されたオブジェクトを、ユーザにより選択可能なオブジェクトとして設定する機能を有する。
第三の実施の形態において、選択可を示す属性を有するオブジェクトが、選択可能なオブジェクトとなることが好ましい。
第三の実施の形態におけるプログラム実行処理のフローチャートは、図2のフローチャートに示されるものを必要な範囲で採用することができる。
第三の実施の形態の一側面として、ユーザの操作性を向上させることができる。
第三の実施の形態の一側面として、コンピュータ装置が属性記憶部111を備え、選択可を示す属性を有するオブジェクトが、選択可能なオブジェクトとなることで、選択不可の属性を有するオブジェクトを選択候補から排除し、選択可能なオブジェクトのみを間違えることなく選択することができ、ユーザの操作性を向上させることができる。
第三の実施の形態において、「入力装置」、「コンピュータ装置」、「三次元仮想空間」、「オブジェクト」、「画像上の位置」、「基準点」、「仮想カメラの視線」、及び「視線を遮る」は、それぞれ第一の実施の形態において記載した内容を必要な範囲で採用できる。
[第四の実施の形態]
次に、本発明の第四の実施の形態の概要について説明をする。以下では、第四の実施の形態として、入力装置を備えるコンピュータ装置において実行されるプログラムを例示して説明をする。
図4は、本発明の実施の形態の少なくとも1つに対応する、コンピュータ装置の構成を示すブロック図である。コンピュータ装置1は、制御部11、RAM(Random Access Memory)12、ストレージ部13、サウンド処理部14、グラフィックス処理部15、外部記憶媒体読込部16、通信インタフェース17、及び、インタフェース部18を少なくとも備え、それぞれ内部バスにより接続されている。
制御部11は、CPU(Central Processing Unit)やROM(Read Only Memory)から構成される。制御部11は、ストレージ部13や外部記憶媒体24に格納されたプログラムを実行し、コンピュータ装置1の制御を行う。また、制御部11は時間を計時する内部タイマを備えている。RAM12は、制御部11のワークエリアである。ストレージ部13は、プログラムやデータを保存するための記憶領域である。
外部記憶媒体読込部16は、DVD−ROM、CD−ROM、カートリッジROM等のプログラムが格納された外部記憶媒体24から、格納されたプログラムを読み込むことが可能である。外部記憶媒体24には、例えばプログラム及びデータが記憶されている。外部記憶媒体読込部16により、プログラム及びデータが外部記憶媒体24から読み出され、RAM12にロードされる。
制御部11は、プログラム及びデータをRAM12から読み出して処理を行う。制御部11は、RAM12にロードされたプログラム及びデータを処理することで、サウンド出力の指示をサウンド処理部14に出力し、描画命令をグラフィックス処理部15に出力する。
サウンド処理部14は、スピーカであるサウンド出力装置21に接続されている。制御部11がサウンド出力の指示をサウンド処理部14に出力すると、サウンド処理部14はサウンド出力装置21にサウンド信号を出力する。
グラフィックス処理部15は表示装置22に接続されている。表示装置22は表示画面23を有している。制御部11が描画命令をグラフィックス処理部15に出力すると、グラフィックス処理部15は、フレームメモリ(フレームバッファ)19に画像を展開し、表示画面23上に画像を表示するためのビデオ信号を出力する。グラフィックス処理部15は、フレーム単位で1枚の画像の描画を実行する。画像の1フレーム時間は、例えば30分の1秒である。グラフィックス処理部15は、制御部11だけで行ってきた描画に関する演算処理の一部を受け持ち、システム全体の負荷を分散させる役割を有する。
インタフェース部18には入力部20(例えば、マウスやキーボード等)が接続され得る。ユーザによる入力部20からの入力情報はRAM12に格納され、制御部11は入力情報をもとに各種の演算処理を実行する。あるいは、インタフェース部18に記憶媒体読取装置を接続し、メモリ等からプログラム及びデータ等を読み込むことも可能である。また、タッチパネルを備えた表示装置22を入力部20とすることもできる。
通信インタフェース17は無線又は有線により通信ネットワーク2に接続が可能であり、通信ネットワーク2を介して他のコンピュータ装置との間で情報の送受信を行うことが可能である。
コンピュータ装置1は、近接センサ、赤外線センサ、ジャイロセンサ、又は、加速度センサ等のセンサを備えるものであってもよい。また、コンピュータ装置1は、レンズを有し、レンズ介して撮像する撮像部を備えるものであってもよい。
次に、本発明の第四の実施の形態におけるプログラム実行画面について説明する。第四の実施の形態では一例として、入力部20としてキーボードとマウスを備えるコンピュータ装置を挙げる。また、プログラムの一例として、三次元の仮想空間において、ユーザが操作するユーザオブジェクト(以下、プレイヤキャラクタともいう)を移動させることが可能なフィールド移動型のゲームプログラムを挙げる。
[実行画面]
図5は、本発明の実施の形態の少なくとも1つに対応する、プログラム実行画面の例を表す図である。コンピュータ装置1の表示画面23には、ゲーム画面50が表示される。ゲーム画面50は、仮想カメラにより、三次元仮想空間を撮像したものである。
図5(A)に示すように、ゲーム画面50には、ユーザが操作するユーザオブジェクトPC1、PC2、敵オブジェクトEC101、コンピュータ装置により制御されるノンプレイヤオブジェクトNPC1、ゲームフィールド上に配置されたオブジェクト52a、52b、メニューオブジェクト53、マウスの操作に連動するカーソル501等が表示される。ゲームフィールド上に存在するオブジェクトはいずれも、同じ位置から動かなくてもよいし、ランダムに動き回っていてもよい。
ユーザは、マウスを操作することにより、カーソル501を移動させることができる。ユーザは、敵オブジェクトEC101等にカーソル501を重ね、クリックすることにより、敵オブジェクトを攻撃することができる。また、オブジェクトが存在しないフィールドをクリックすると、ユーザオブジェクトPC1をクリックした位置に移動させるように制御することができる。左右のクリック操作にそれぞれ、異なる命令を設定してもよい。
ユーザオブジェクトPC1は、複数存在してもよい。例えば、他のユーザが操作するユーザオブジェクトPC2や、コンピュータ装置により制御されるが、ユーザオブジェクトPC1の味方として行動するキャラクタを含めて、パーティ又はギルド(以下、ギルド等という)を組んで仮想空間内を冒険してもよい。
メニューオブジェクト53をクリックすると、ゲームの設定を変更することができる。後述する、ゲームの設定を変更するためのコンフィグ画面を表示することもできる。
次に、仮想カメラによる撮像について説明する。図5(B)に示すように、仮想カメラ600は、仮想空間内の任意の位置に配置され得る。例えば、ユーザオブジェクトPC1を上から見下ろすように、地面(フィールド)方向へ仮想カメラの視軸を向けて俯瞰的な視点で撮像してもよいし、ユーザオブジェクトPC1の視線と同程度の高さに、地面に対して水平方向に仮想カメラの視軸を向けて撮像してもよい。また、地面とは反対の空中方向へ仮想カメラの視軸を向けて撮像してもよい。
仮想カメラの視点を、ユーザオブジェクトPC1の視点と略同一にしてもよいし、ユーザオブジェクトPC1の視軸とは異なる方向に、仮想カメラの視軸を向けるようにしてもよい。仮想カメラの位置は、ユーザの操作に基づいて変更され得る。
続いて、コンピュータ装置1が備える機能について説明する。図6は、本発明の実施の形態の少なくとも1つに対応する、コンピュータ装置の構成を示すブロック図である。コンピュータ装置1は、属性記憶部201、画像生成部202、機能有効判定部203、操作継続判定部204、位置取得部205、距離算出部206、第一判定部207、第二判定部208、対象変更部209、設定部210、及び選択部211を少なくとも備える。
属性記憶部201は、三次元仮想空間内のオブジェクトの選択の可又は不可を示す、オブジェクト毎の属性を記憶する機能を有する。画像生成部202は、三次元仮想空間内を仮想カメラにより撮像した画像を生成する機能を有する。機能有効判定部203は、ターゲット機能が有効であるか否かを判定する機能を有する。操作継続判定部204は、ユーザによる所定の入力操作が継続しているか否かを判定する機能を有する。位置取得部205は、ユーザにより入力装置を介して指定された、生成された画像上の位置を取得する機能を有する。
距離算出部206は、位置取得部205により取得された位置と、オブジェクトの画像上の位置との距離を算出する機能を有する。第一判定部207は、三次元仮想空間内のオブジェクトの生成された画像上の位置が、位置取得部205において取得された位置と所定の関係にあるか否かを判定する機能を有する。第二判定部208は、三次元仮想空間内において、基準点とオブジェクトとの間に、該基準点からの視線を遮る障害オブジェクトが存在するか否かを判定する機能を有する。
対象変更部209は、オブジェクトが所定の条件を満たさないと判定された場合に、判定の対象にしていたオブジェクト以外のオブジェクトを判定対象とする機能を有する。設定部210は、第一判定部207により所定の関係にあると判定され、且つ、第二判定部208により障害オブジェクトが存在しないと判定されたオブジェクトを、ユーザにより選択可能なオブジェクトとして設定する機能を有する。選択部211は、所定の条件を満たしたオブジェクトを選択する機能を有する。
次に、プログラム実行処理について説明する。前提として、コンピュータ装置1の属性記憶部201により、仮想空間に存在する各オブジェクトに、選択の可又は不可を示す属性が記憶されている。すなわち、オブジェクトには予め選択可能なものと選択不可能なものが区別されている。また、画像生成部202により、三次元仮想空間内を仮想カメラにより撮像した画像が生成され、コンピュータ装置1の表示画面23に表示される。
図7は、本発明の実施の形態の少なくとも1つに対応する、プログラム実行処理のフローチャートである。コンピュータ装置1は、ターゲット機能が有効であるか否かを判定する(ステップS11)。ターゲット機能を有効にするには、予め設定(コンフィグ)画面で、当該機能を有効にするようにしてもよい。
[設定(コンフィグ)画面]
図8は、本発明の実施の形態の少なくとも1つに対応する、コンフィグ画面の例を表すである。コンフィグ画面は、ゲーム画面50中のメニューオブジェクト53をクリックすることで表示させる。コンフィグ画面には、有効又は無効にすることが可能な機能が表示される。機能の例として、図8にあるように、ユーザの操作に依らずにオブジェクトを選択する、オートターゲット機能を挙げる。
オートターゲット機能は、「マウスカーソルに近い対象をオートターゲットする」という文字の左側に位置するチェックボックスにチェックを入れることで、機能を有効にすることができる。また、一例として、ターゲットする対象(NPC、PC、ペット、同盟メンバ等)を選択できるようにしてもよい。この結果、ユーザの趣向に合わせた設定が可能となり、ユーザの操作性を向上させることができる。
チェックボックスをチェックすると設定が更新されるようにしてもよいし、保存ボタンを押下して設定を保存できるようにしてもよい。あるいはオートターゲット機能の有効又は無効をチェックボックスとして、ターゲット可能な対象をそれぞれキーボードのキーに割り当てるようにしてもよい。キーへの割り当てとは、例えば、「アイテム/宝箱」をEキーに、「ペット」をZキーに割り当てることをいう。
図7のフローチャートに戻る。ターゲット機能が無効である場合(ステップS11にてNO)には、処理を終了する。ターゲット機能が有効である場合(ステップS11にてYES)には、コンピュータ装置1は、操作継続判定部204により、所定の入力操作が継続しているか否かを判定する(ステップS12)。所定の入力操作とは、例えば、特定のキーの押下、短い間隔での連続クリック操作等が挙げられる。
所定の入力操作が継続していないと判定された場合(ステップS12にてNO)には、処理を終了する。所定の入力操作が継続していると判定された場合(ステップS12にてYES)には、コンピュータ装置1は、位置取得部205により、ユーザにより入力装置を介して指定された、生成された画像上の位置を取得する(ステップS13)。ここで、一例として、入力装置とはマウスであり、ステップS13で取得される位置は、マウスにより指定された位置、すなわち、ゲーム画面50においてカーソル501が指定している位置座標である。
次に、コンピュータ装置1は、第一判定部207により、位置取得部205により取得された位置と、所定の関係にあるオブジェクトを抽出する。所定の関係とは、例えば、ステップS13において取得された位置から所定の範囲内に位置するような関係をいう。所定の範囲は、二次元平面の範囲であってもよいし、三次元の立体空間内の範囲であってもよい。コンピュータ装置1は、距離算出部206により、位置取得部205により取得された位置と、抽出されたオブジェクトの画像上の位置との距離を算出し、取得された位置、すなわちカーソル501の位置から最も近い距離にあるオブジェクトを、第二判定部208の判定対象に設定する(ステップS14)。
次に、コンピュータ装置1は、三次元仮想空間内において、基準点とオブジェクトとの間に、該基準点からの視線を遮る障害オブジェクトが存在するか否かを判定する(ステップS15)。ここで基準点の一例として、三次元仮想空間内を撮像する仮想カメラの視点を挙げる。
[基準点からの視線の遮断]
ここで、基準点からの視線を遮ることについて説明する。図9は、本発明の実施の形態の少なくとも1つに対応する、視線の遮断を説明する概念図である。図9(A)は、ゲーム画面50において、オブジェクトの選択を説明する図である。図中では、基準点である仮想カメラの視線は、フィールド方向に向けられており、俯瞰図のように表示される。
カーソル501が存在する位置から、半径rの円内に含まれるオブジェクトが選択の対象となるオブジェクト群である。図中では範囲内に、敵オブジェクトEC101、EC102、及びオブジェクトOBJ201が存在する。
カーソル501から各敵オブジェクトまでの距離は、d2の方がd1よりも短いものとする。この場合に、カーソル501の位置から最も近い敵オブジェクトを選択するようにすると、敵オブジェクトEC102を選択することになる。
ここで、敵オブジェクトEC101とEC102に対する、仮想カメラからの視線が遮断されているか否かを説明する。図9(B)は、敵オブジェクトEC101に対する仮想カメラの視線を説明する図である。フィールド上に位置する敵オブジェクトEC101に対して、仮想カメラ600からの視線は、他のオブジェクトに遮られていない。換言すれば、仮想カメラ600の視点と、敵オブジェクトEC101の一部(図中ではキャラクタの頭部)とを結ぶ線分上に、他のオブジェクトは存在しない。この状態を「視線が通る」という。
一方、図9(C)は、敵オブジェクトEC102に対する仮想カメラの視線を説明する図である。図9(A)に示すように、敵オブジェクトEC102は、木のオブジェクトに隠れていて、仮想カメラにより撮像された画像では、直接姿を確認することができない。つまり、仮想カメラ600からの視線は木のオブジェクトにより遮られている。このように、仮想カメラの視点と、敵オブジェクトEC102の一部(頭部)とを結ぶ線分上に、他のオブジェクトが存在し、視線が遮られている状態を「視線が通っていない」という。
ただし、基準点と、敵オブジェクトEC102の所定の部分とを結ぶ線分上において視線が通っていなかったとしても、敵オブジェクトEC102の所定の部分とは異なる、他の部分とを結ぶ線分上において視線が通っている場合には、結果として視線が通っているものとしてもよい。つまり、敵オブジェクトEC102の一部でも視認することができれば、視線が通っていると判定してもよい。
視線が通るか否かは、視線(又は視軸)の線分上に位置する他のオブジェクトの透明度に依るようにしてもよい。図9(D)は、透明なオブジェクトが存在する場合の仮想カメラの視線を説明する図である。仮想カメラ600の視線は、一例として、地面と水平方向に向けられている。また、仮想カメラ600の視点と、敵オブジェクトEC103との間に、オブジェクトOBJ202が存在する。
ここで、オブジェクトOBJ202が、ガラスのような、透明なオブジェクトだった場合には、仮想カメラ600の視線は、敵オブジェクトEC103に通っていると判定してもよい。また、オブジェクトOBJ202の透過率に応じて、視線が通るか否かを決定してもよい。このようにすることで、ユーザが仮想カメラを移動させて敵オブジェクトやアイテム等を発見する趣向性を高めることができる。
仮想カメラの視点を基準点とすることで、視線が通るか否かを判定する対象は、仮想カメラにより撮像された画像において、視認可能なオブジェクトと言い換えることができる。
図7のフローチャートに戻る。基準点から視線が通っていない場合(ステップS15にてNO)には、コンピュータ装置1は、対象変更部209により、判定の対象にしていたオブジェクト以外のオブジェクトを判定対象とする(ステップS16)。より具体的には、ステップS13において取得した位置から次に近い位置に存在するオブジェクトを判定対象にする。そして、再度基準点から視線が通っているか否かを判定する(ステップS15)。なお、ステップS16において対象とするオブジェクトを変更しているが、位置取得部205により取得された位置と所定の関係にあるすべてのオブジェクトに対して、基準点から視線が通っていない場合には、選択可能なオブジェクトが存在しないものとして処理を終了させてもよい。
基準点から視線が通っている場合(ステップS15にてYES)には、コンピュータ装置1は、ステップS15において判定の対象としていたオブジェクトをユーザにより選択可能なオブジェクトとして設定する(ステップS17)。次に、コンピュータ装置1は、選択部211により、設定したオブジェクトを自動で選択状態にして(ステップS18)、終了する。
第四の実施の形態の一例として、判定対象としたオブジェクトが所定の条件を満たさない場合に、次に近いオブジェクトを選択するようにしたが、これに限定されない。例えば、ユーザの操作に基づいて、対象を変更するようにしてもよい。
第四の実施の形態の一例として、選択可能なオブジェクトとして設定した後に、自動で選択状態としたが、これに限定されない。例えば、選択されずに、ターゲット候補を強調して表示する等、表示態様を変更するようにしてもよい。あるいは、ユーザの操作指示に基づいて選択するようにしてもよい。
第四の実施の形態の一例として、仮想カメラの視線方向と、ユーザの操作指示により動作するキャラクタの視線方向とが異なるようにしてもよい。
第四の実施の形態の一例として、コンフィグ画面で設定したうえで、所定の入力操作を継続した場合にターゲット機能が有効になるように記載したが、これに限定されない。例えば、コンフィグ画面の設定のみで有効化してもよいし、所定の入力操作の継続のみで有効にしてもよい。
第四の実施の形態の一例として仮想空間を挙げたが、現実世界の情報を取り入れたAR(拡張現実)の分野にも適用可能である。
第四の実施の形態の一例としてゲームプログラムを挙げたが、ゲームに限定されるものではなく、適用可能なジャンルは限定されない。
第四の実施の形態の一例として、視線が通るか否かを判定する基準点を仮想カメラの視点としたが、これに限定されない。例えば、基準点をオブジェクトに設定するようにしてもよい。
第四の実施の形態の一例として、入力装置にマウスを使用した例を挙げたが、これに限定されるものではない。例えば、入力装置として、ユーザの身体の動きを検出するウェアラブル装置を採用してもよい。また、身体の動きとして、眼球の動きを読み取る装置を採用してもよい。あるいは、発せられた声を聞き取り、入力位置を操作するような装置を採用してもよい。
[基準点をオブジェクトに設定]
基準点をユーザオブジェクトPC1に設定した場合について説明する。図10は、本発明の実施の形態の少なくとも1つに対応する、視線の遮断を説明する概念図である。図10(A)は、ゲーム画面50において、オブジェクトの選択を説明する図である。図中では、仮想カメラの視線は、フィールド方向に向けられており、俯瞰図のように表示される。
カーソル501が存在する位置から、半径rの円内に含まれるオブジェクトが選択の対象となるオブジェクト群である。図中では範囲内に、敵オブジェクトEC101、EC102、及びオブジェクトOBJ201が存在する。
カーソル501から各敵オブジェクトまでの距離は、d2の方がd1よりも短いものとする。この場合に、カーソル501の位置から最も近い敵オブジェクトを選択するのであれば、敵オブジェクトEC102が選択されることになる。
ここで、敵オブジェクトEC101とEC102に対する、ユーザオブジェクトPC1からの視線が遮断されているか否かを説明する。図10(B)及び図10(C)は、図10(A)に示す、目のオブジェクトの方向から眺めた図である。
図10(B)は、敵オブジェクトEC101に対する、ユーザオブジェクトPC1の視線を説明する図である。フィールド上に位置する敵オブジェクトEC101に対して、ユーザオブジェクトPC1からの視線は、他のオブジェクトに遮られていない。換言すれば、ユーザオブジェクトPC1の視点と、敵オブジェクトEC101の一部(図中ではキャラクタの頭部)とを結ぶ線分上に、他のオブジェクトは存在せず、視線が通っている。
一方、図10(C)は、敵オブジェクトEC102に対するユーザオブジェクトPC1の視線を説明する図である。図10(A)に示すように、敵オブジェクトEC102は、ユーザオブジェクトPC1から見て、木のオブジェクトの奥方向に位置している。したがって、仮想カメラにより撮像された画像では、直接姿を確認することができない。つまり、ユーザオブジェクトPC1からの視線は木のオブジェクトにより遮られていて、視線が通っていない。
視線が通るか否かは、高さの概念も考慮してもよい。図10(D)は、敵オブジェクトEC103が、ユーザオブジェクトPC1の立っている位置よりも高い位置に存在する場合の、ユーザオブジェクトPC1の視線を説明する図である。ユーザオブジェクトPC1の視線は、壁面により阻まれており、ユーザオブジェクトPC1からは敵オブジェクトEC103を視認することはできない。つまり、この状態では、ユーザオブジェクトPC1の視線は、敵オブジェクトEC103に通っていない。
一方、視線を反射する鏡のようなオブジェクトが存在してもよい。例えば、オブジェクト510が、鏡のように、入射角と反射角が等しくなるように光線を反射する性質を有した物体である場合に、ユーザオブジェクトPC1の視線は、敵オブジェクトEC103に通っていると判定してもよい。同様に、水面に反射させることで、視認できる場合に、視線が通ったと判断するようにしてもよい。このようにすることで、ユーザオブジェクトが仮想空間で視認可能なオブジェクトのみを選択可能にすることができ、仮想空間をより現実的に感じさせることができ、ユーザの没入感を高めることができる。
第四の実施の形態の一例として、ユーザオブジェクトに基準点を設定した例を説明したが、本願はこれに限定されない。例えば、敵オブジェクトに基準点を設定したり、仮想空間に配置された石オブジェクトに基準点を設定するようにしてもよい。設定する基準点を変更することで、ユーザの操作性を変更することができ、趣向性を向上させることができる。
第四の実施の形態の一側面として、ユーザの操作性を向上させることができる。
第四の実施の形態の一側面として、第二判定部208における基準点が、三次元仮想空間内を撮像する仮想カメラの視点であることで、撮像された画像において視認可能なオブジェクトのみ選択でき、ユーザは直感的に操作が可能になり、操作性を向上させることができる。
第四の実施の形態の一側面として、第二判定部208における基準点が、三次元仮想空間内において、前記ユーザの操作指示により動作するキャラクタの視点であることにより、ユーザオブジェクトが仮想空間で視認可能なオブジェクトのみを選択可能にすることができ、仮想空間をより現実的に感じさせることができ、ユーザの没入感を高めることができる。
第四の実施の形態の一側面として、コンピュータ装置が属性記憶部201を備え、選択可を示す属性を有するオブジェクトが、選択可能なオブジェクトとなることで、選択不可の属性を有するオブジェクトを選択候補から排除し、選択可能なオブジェクトのみを間違えることなく選択することができ、ユーザの操作性を向上させることができる。
第四の実施の形態の一側面として、所定の条件を満たした場合にのみ、設定部210によるオブジェクトの設定が実現可能となることで、ユーザの趣向に合わせた設定が可能となり、ユーザの操作性を向上させることができる。
第四の実施の形態の一側面として、設定部210の実現の可又は不可を示す属性が実現可能に設定されていることでオブジェクトの設定が実現可能となることで、ユーザの趣向に合わせた設定が可能となり、ユーザの操作性を向上させることができる。
第四の実施の形態の一側面として、ユーザによる所定の入力操作が継続していることでオブジェクトの設定が実現可能となることで、ユーザの趣向に合わせた設定が可能となり、ユーザの操作性を向上させることができる。
第四の実施の形態の一側面として、仮想カメラの視線方向と、三次元仮想空間内において、ユーザの操作指示により動作するキャラクタの視線方向とが異なることで、ユーザキャラクタの状態を客観的に視認することができ、キャラクタの背後の状態を視認できる等、ユーザの視認性を向上させることができる。
第四の実施の形態の一側面として、距離算出部206及びオブジェクトを選択する選択部211を備えることで、ユーザの操作を補助して、操作負荷を軽減することができ、ユーザの操作性を向上させることができる。
第四の実施の形態の一側面として、選択部211及びユーザの入力操作に基づいて、選択されたオブジェクトとは異なるオブジェクトに選択を切り替える手段を備えることで、ユーザのタイミングで選択を切り替えることができ、ユーザの操作性を向上させることができる。
第四の実施の形態において、「入力装置」、「コンピュータ装置」、「三次元仮想空間」、「オブジェクト」、「画像上の位置」、「基準点」、「仮想カメラの視線」、及び「視線を遮る」は、それぞれ第一の実施の形態において記載した内容を必要な範囲で採用できる。
第四の実施の形態において、「所定の入力操作の継続」とは、例えば、所定の操作を連続して行うこと、あるいは、所定の間隔で断続的に同一の操作を繰り返すことをいう。「俯瞰的な視点」とは、例えば、仮想空間を高い位置から見下ろすような視点をいう。
[第五の実施の形態]
本発明の第五の実施の形態の概要について説明をする。以下では、第五の実施の形態として、入力装置を備える端末装置と、該端末装置と通信により接続可能なサーバ装置とを備えるシステムの、該サーバ装置において実行されるプログラムを例示して説明をする。
図11は、本発明の実施の形態の少なくとも1つに対応する、サーバ装置の構成を示すブロック図である。サーバ装置3は、画像生成部301、位置取得部302、第一判定部303、第二判定部304、及び設定部305を少なくとも備える。
画像生成部301は、三次元仮想空間内を仮想カメラにより撮像した画像を生成する機能を有する。位置取得部302は、ユーザにより入力装置を介して指定された、生成された画像上の位置を取得する機能を有する。
第一判定部303は、三次元仮想空間内のオブジェクトの生成された画像上の位置が、位置取得部302において取得された位置と所定の関係にあるか否かを判定する機能を有する。第二判定部304は、三次元仮想空間内において、基準点と前記オブジェクトとの間に、該基準点からの視線を遮る障害オブジェクトが存在するか否かを判定する機能を有する。
設定部305は、第一判定部303により所定の関係にあると判定され、且つ、第二判定部304により障害オブジェクトが存在しないと判定されたオブジェクトを、ユーザにより選択可能なオブジェクトとして設定する機能を有する。
次に、本発明の第五の実施の形態におけるプログラム実行処理について説明する。図12は、本発明の実施の形態の少なくとも1つに対応する、プログラム実行処理のフローチャートである。
サーバ装置3は、三次元仮想空間内を仮想カメラにより撮像した画像を生成する(ステップS101)。次に、サーバ装置3は、ユーザにより入力装置を介して指定された、生成された画像上の位置を取得する(ステップS102)。
次に、サーバ装置3は、三次元仮想空間内のオブジェクトの生成された画像上の位置が、ステップS102において取得された位置と所定の関係にあるか否かを判定する(ステップS103)。次に、サーバ装置3は、三次元仮想空間内において、基準点と前記オブジェクトとの間に、該基準点からの視線を遮る障害オブジェクトが存在するか否かを判定する(ステップS104)。
次に、サーバ装置3は、第一判定部303により所定の関係にあると判定され、且つ、第二判定部304により障害オブジェクトが存在しないと判定されたオブジェクトを、ユーザにより選択可能なオブジェクトとして設定し(ステップS105)、終了する。
第五の実施の形態の一側面として、ユーザの操作性を向上させることができる。
第五の実施の形態において、「入力装置」、「三次元仮想空間」、「オブジェクト」、「画像上の位置」、「基準点」、「仮想カメラの視線」、及び「視線を遮る」は、それぞれ第一の実施の形態において記載した内容を必要な範囲で採用できる。
第五の実施の形態において、「端末装置」とは、例えば、据置型ゲーム機、携帯型ゲーム機、ウェアラブル型端末、デスクトップ型又はノート型パーソナルコンピュータ、タブレットコンピュータ、又は、PDA等をいい、表示画面にタッチパネルセンサを備えるスマートフォン等の携帯型端末であってもよい。「サーバ装置」とは、例えば、端末装置からの要求に応じて処理を実行する装置をいう。
[第六の実施の形態]
本発明の第六の実施の形態の概要について説明をする。以下では、第六の実施の形態として、入力装置を備える端末装置と、該端末装置と通信により接続可能なサーバ装置とを備えるシステムを例示して説明をする。
図13は、本発明の実施の形態の少なくとも1つに対応する、システムの構成を示すブロック図である。システム4は、画像生成部351、位置取得部352、第一判定部353、第二判定部354、及び設定部355を少なくとも備える。
画像生成部351は、三次元仮想空間内を仮想カメラにより撮像した画像を生成する機能を有する。位置取得部352は、ユーザにより入力装置を介して指定された、生成された画像上の位置を取得する機能を有する。
第一判定部353は、三次元仮想空間内のオブジェクトの生成された画像上の位置が、位置取得部352において取得された位置と所定の関係にあるか否かを判定する機能を有する。第二判定部354は、三次元仮想空間内において、基準点と前記オブジェクトとの間に、該基準点からの視線を遮る障害オブジェクトが存在するか否かを判定する機能を有する。
設定部355は、第一判定部353により所定の関係にあると判定され、且つ、第二判定部354により障害オブジェクトが存在しないと判定されたオブジェクトを、ユーザにより選択可能なオブジェクトとして設定する機能を有する。
次に、本発明の第六の実施の形態におけるプログラム実行処理について説明する。図14は、本発明の実施の形態の少なくとも1つに対応する、実行処理のフローチャートである。
システム4は、三次元仮想空間内を仮想カメラにより撮像した画像を生成する(ステップS151)。次に、システム4は、ユーザにより入力装置を介して指定された、生成された画像上の位置を取得する(ステップS152)。
次に、システム4は、三次元仮想空間内のオブジェクトの生成された画像上の位置が、ステップS152において取得された位置と所定の関係にあるか否かを判定する(ステップS153)。次に、サーバ装置3は、三次元仮想空間内において、基準点と前記オブジェクトとの間に、該基準点からの視線を遮る障害オブジェクトが存在するか否かを判定する(ステップS154)。
次に、システム4は、第一判定部353により所定の関係にあると判定され、且つ、第二判定部354により障害オブジェクトが存在しないと判定されたオブジェクトを、ユーザにより選択可能なオブジェクトとして設定し(ステップS155)、終了する。
第六の実施の形態の一側面として、ユーザの操作性を向上させることができる。
第六の実施の形態において、「入力装置」、「三次元仮想空間」、「オブジェクト」、「画像上の位置」、「基準点」、「仮想カメラの視線」、及び「視線を遮る」は、それぞれ第一の実施の形態において記載した内容を必要な範囲で採用できる。
第六の実施の形態において、「端末装置」及び「サーバ装置」は、それぞれ第五の実施の形態において記載した内容を必要な範囲で採用できる。
[第七の実施の形態]
本発明の第七の実施の形態の概要について説明をする。以下では、第七の実施の形態として、入力装置を備える端末装置と、該端末装置と通信により接続可能なサーバ装置とを備えるシステムの、該端末装置において実行されるプログラムを例示して説明をする。
図15は、本発明の実施の形態の少なくとも1つに対応する、端末装置の構成を示すブロック図である。端末装置5は、画像生成部401、位置取得部402、第一判定部403、第二判定部404、及び設定部405を少なくとも備える。
画像生成部401は、三次元仮想空間内を仮想カメラにより撮像した画像を生成する機能を有する。位置取得部402は、ユーザにより入力装置を介して指定された、生成された画像上の位置を取得する機能を有する。
第一判定部403は、三次元仮想空間内のオブジェクトの生成された画像上の位置が、位置取得部402において取得された位置と所定の関係にあるか否かを判定する機能を有する。第二判定部404は、三次元仮想空間内において、基準点と前記オブジェクトとの間に、該基準点からの視線を遮る障害オブジェクトが存在するか否かを判定する機能を有する。
設定部405は、第一判定部403により所定の関係にあると判定され、且つ、第二判定部404により障害オブジェクトが存在しないと判定されたオブジェクトを、ユーザにより選択可能なオブジェクトとして設定する機能を有する。
次に、本発明の第七の実施の形態におけるプログラム実行処理について説明する。図16は、本発明の実施の形態の少なくとも1つに対応する、プログラム実行処理のフローチャートである。
端末装置5は、三次元仮想空間内を仮想カメラにより撮像した画像を生成する(ステップS201)。次に、端末装置5は、ユーザにより入力装置を介して指定された、生成された画像上の位置を取得する(ステップS202)。
次に、端末装置5は、三次元仮想空間内のオブジェクトの生成された画像上の位置が、ステップS202において取得された位置と所定の関係にあるか否かを判定する(ステップS203)。次に、端末装置5は、三次元仮想空間内において、基準点と前記オブジェクトとの間に、該基準点からの視線を遮る障害オブジェクトが存在するか否かを判定する(ステップS204)。
次に、端末装置5は、第一判定部403により所定の関係にあると判定され、且つ、第二判定部404により障害オブジェクトが存在しないと判定されたオブジェクトを、ユーザにより選択可能なオブジェクトとして設定し(ステップS205)、終了する。
第七の実施の形態の一側面として、ユーザの操作性を向上させることができる。
第七の実施の形態において、「入力装置」、「三次元仮想空間」、「オブジェクト」、「画像上の位置」、「基準点」、「仮想カメラの視線」、及び「視線を遮る」は、それぞれ第一の実施の形態において記載した内容を必要な範囲で採用できる。
第七の実施の形態において、「端末装置」及び「サーバ装置」は、それぞれ第五の実施の形態において記載した内容を必要な範囲で採用できる。
[第八の実施の形態]
次に、本発明の第八の実施の形態の概要について説明をする。以下では、第八の実施の形態として、入力装置を備える端末装置と、該端末装置と通信により接続可能なサーバ装置とを備えるシステムを例示して説明をする。
図17は、本発明の実施の形態の少なくとも1つに対応する、システムの構成を示すブロック図である。図示するように、システム4は、複数のユーザ(ユーザA、B・・・Z)によって操作される複数の端末装置5(端末装置5a、5b・・・5z)と、通信ネットワーク2と、サーバ装置3とから構成される。端末装置5は、通信ネットワーク2を介してサーバ装置3と接続されている。なお、端末装置5とサーバ装置3とは常時接続していなくてもよく、必要に応じて、接続が可能であればよい。
図18は、本発明の実施の形態の少なくとも1つに対応する、サーバ装置の構成を示すブロック図である。サーバ装置3は、制御部31、RAM32、ストレージ部33及び通信インタフェース34を備え、それぞれ内部バスにより接続されている。
制御部31は、CPUやROMから構成され、ストレージ部33に格納されたプログラムを実行し、サーバ装置3の制御を行う。また、制御部31は時間を計時する内部タイマを備えている。RAM32は、制御部31のワークエリアである。ストレージ部33は、プログラムやデータを保存するための記憶領域である。制御部31は、プログラム及びデータをRAM32から読み出し、端末装置5から受信した要求情報をもとに、プログラム実行処理を行う。通信インタフェース34は、無線又は有線により通信ネットワーク2に接続が可能であり、通信ネットワーク2を介してデータを受信することが可能である。通信インタフェース34を介して受信したデータは、RAM32にロードされ、制御部31により演算処理が行われる。
本発明の第八の実施の形態における端末装置の構成に関しては、図4に記載された内容を必要な範囲で採用できる。本発明の第八の実施の形態におけるプログラム実行画面に関しては、第四の実施の形態に記載された内容、図5及び図8に記載された内容を必要な範囲で採用できる。本発明の第八の実施の形態におけるプログラムは、例えば、1以上のサーバ装置を介して、複数の端末装置間で通信により接続してプレイする、MMORPGのようなゲームプログラムが挙げられる。
続いて、システム4が備える機能について説明する。図20は、本発明の実施の形態の少なくとも1つに対応する、システムの構成を示すブロック図である。システム4は、属性記憶部1201、画像生成部1202、機能有効判定部1203、操作継続判定部1204、位置取得部1205、距離算出部1206、第一判定部1207、第二判定部1208、対象変更部1209、設定部1210、及び選択部1211を少なくとも備える。
属性記憶部1201は、三次元仮想空間内のオブジェクトの選択の可又は不可を示す、オブジェクト毎の属性を記憶する機能を有する。画像生成部1202は、三次元仮想空間内を仮想カメラにより撮像した画像を生成する機能を有する。機能有効判定部1203は、ターゲット機能が有効であるか否かを判定する機能を有する。操作継続判定部1204は、ユーザによる所定の入力操作が継続しているか否かを判定する機能を有する。位置取得部1205は、ユーザにより入力装置を介して指定された、生成された画像上の位置を取得する機能を有する。
距離算出部1206は、位置取得部1205により取得された位置と、オブジェクトの画像上の位置との距離を算出する機能を有する。第一判定部1207は、三次元仮想空間内のオブジェクトの生成された画像上の位置が、位置取得部1205において取得された位置と所定の関係にあるか否かを判定する機能を有する。第二判定部1208は、三次元仮想空間内において、基準点とオブジェクトとの間に、該基準点からの視線を遮る障害オブジェクトが存在するか否かを判定する機能を有する。
対象変更部1209は、オブジェクトが所定の条件を満たさないと判定された場合に、判定の対象にしていたオブジェクト以外のオブジェクトを判定対象とする機能を有する。設定部1210は、第一判定部1207により所定の関係にあると判定され、且つ、第二判定部1208により障害オブジェクトが存在しないと判定されたオブジェクトを、ユーザにより選択可能なオブジェクトとして設定する機能を有する。選択部1211は、所定の条件を満たしたオブジェクトを選択する機能を有する。
システム4が備える機能は、サーバ装置3及び端末装置5のいずれかが備えていればよい。すなわち、分散して備えていてもよく、組み合わせは限定されるものではない。また、フローチャートに示す処理は、矛盾や不整合が生じない限り、サーバ装置3及び端末装置5のいずれかにより実施されてもよい。
次に、実行処理について説明する。前提として、システム4の属性記憶部1201により、仮想空間に存在する各オブジェクトに、選択の可又は不可を示す属性が記憶されている。すなわち、オブジェクトには予め選択可能なものと選択不可能なものが区別されている。また、画像生成部1202により、三次元仮想空間内を仮想カメラにより撮像した画像が生成され、端末装置5の表示画面23に表示される。
図20は、本発明の実施の形態の少なくとも1つに対応する、実行処理のフローチャートである。システム4は、ターゲット機能が有効であるか否かを判定する(ステップS501)。ターゲット機能を有効にするには、予め設定(コンフィグ)画面で、当該機能を有効にするようにしてもよい。設定画面については、第四の実施の形態に記載した内容を必要な範囲で採用することができる。
ターゲット機能が無効である場合(ステップS501にてNO)には、処理を終了する。ターゲット機能が有効である場合(ステップS501にてYES)には、システム4は、操作継続判定部1204により、所定の入力操作が継続しているか否かを判定する(ステップS502)。所定の入力操作とは、例えば、特定のキーの押下、短い間隔での連続クリック操作等が挙げられる。
所定の入力操作が継続していないと判定された場合(ステップS502にてNO)には、処理を終了する。所定の入力操作が継続していると判定された場合(ステップS502にてYES)には、システム4は、位置取得部1205により、ユーザにより入力装置を介して指定された、生成された画像上の位置を取得する(ステップS503)。ここで、一例として、入力装置とはマウスであり、ステップS503で取得される位置は、マウスにより指定された位置、すなわち、ゲーム画面50においてカーソル501が指定している位置座標である。
次に、システム4は、第一判定部1207により、位置取得部1205により取得された位置と、所定の関係にあるオブジェクトを抽出する。所定の関係とは、例えば、ステップS503において取得された位置から所定の範囲内に位置するような関係をいう。所定の範囲は、二次元平面の範囲であってもよいし、三次元の立体空間内の範囲であってもよい。システム4は、距離算出部1206により、位置取得部1205により取得された位置と、抽出されたオブジェクトの画像上の位置との距離を算出し、取得された位置、すなわちカーソル501の位置から最も近い距離にあるオブジェクトを、第二判定部1208の判定対象に設定する(ステップS504)。
次に、システム4は、三次元仮想空間内において、基準点とオブジェクトとの間に、該基準点からの視線を遮る障害オブジェクトが存在するか否かを判定する(ステップS505)。ここで基準点の一例として、三次元仮想空間内を撮像する仮想カメラの視点を挙げる。仮想カメラの視線の遮断については、第四の実施の形態に記載した内容、図9及び図10に記載した内容を必要な範囲で採用することができる。
基準点から視線が通っていない場合(ステップS505にてNO)には、システム4は、対象変更部1209により、判定の対象にしていたオブジェクト以外のオブジェクトを判定対象とする(ステップS506)。より具体的には、ステップS503において取得した位置から次に近い位置に存在するオブジェクトを判定対象にする。そして、再度基準点から視線が通っているか否かを判定する(ステップS505)。なお、ステップS506において対象とするオブジェクトを変更しているが、位置取得部1205により取得された位置と所定の関係にあるすべてのオブジェクトに対して、基準点から視線が通っていない場合には、選択可能なオブジェクトが存在しないものとして処理を終了させてもよい。
基準点から視線が通っている場合(ステップS505にてYES)には、システム4は、ステップS505において判定の対象としていたオブジェクトをユーザにより選択可能なオブジェクトとして設定する(ステップS507)。次に、システム4は、選択部1211により、設定したオブジェクトを自動で選択状態にして(ステップS508)、終了する。
第八の実施の形態の一例として、判定対象としたオブジェクトが所定の条件を満たさない場合に、次に近いオブジェクトを選択するようにしたが、これに限定されない。例えば、ユーザの操作に基づいて、対象を変更するようにしてもよい。
第八の実施の形態の一例として、選択可能なオブジェクトとして設定した後に、自動で選択状態としたが、これに限定されない。例えば、選択されずに、ターゲット候補を強調して表示する等、表示態様を変更するようにしてもよい。あるいは、ユーザの操作指示に基づいて選択するようにしてもよい。
第八の実施の形態の一例として、仮想カメラの視線方向と、ユーザの操作指示により動作するキャラクタの視線方向とが異なるようにしてもよい。
第八の実施の形態の一例として、コンフィグ画面で設定したうえで、所定の入力操作を継続した場合にターゲット機能が有効になるように記載したが、これに限定されない。例えば、コンフィグ画面の設定のみで有効化してもよいし、所定の入力操作の継続のみで有効にしてもよい。
第八の実施の形態の一例として仮想空間を挙げたが、現実世界の情報を取り入れたAR(拡張現実)の分野にも適用可能である。
第八の実施の形態の一例としてゲームプログラムを挙げたが、ゲームに限定されるものではなく、適用可能なジャンルは限定されない。
第八の実施の形態の一例として、視線が通るか否かを判定する基準点を仮想カメラの視点としたが、これに限定されない。例えば、基準点をオブジェクトに設定するようにしてもよい。基準点をオブジェクトに設定する具体例は、第四の実施の形態に記載した内容、図9及び図10に記載した内容を必要な範囲で採用することができる。
第八の実施の形態の一例として、入力装置にマウスを使用した例を挙げたが、これに限定されるものではない。例えば、入力装置として、ユーザの身体の動きを検出するウェアラブル装置を採用してもよい。また、身体の動きとして、眼球の動きを読み取る装置を採用してもよい。あるいは、発せられた声を聞き取り、入力位置を操作するような装置を採用してもよい。
第八の実施の形態の一例として、ユーザオブジェクトに基準点を設定した例を説明したが、本願はこれに限定されない。例えば、敵オブジェクトに基準点を設定したり、仮想空間に配置された石オブジェクトに基準点を設定するようにしてもよい。設定する基準点を変更することで、ユーザの操作性を変更することができ、趣向性を向上させることができる。
第八の実施の形態の一側面として、ユーザの操作性を向上させることができる。
第八の実施の形態の一側面として、第二判定部1208における基準点が、三次元仮想空間内を撮像する仮想カメラの視点であることで、撮像された画像において視認可能なオブジェクトのみ選択でき、ユーザは直感的に操作が可能になり、操作性を向上させることができる。
第八の実施の形態の一側面として、第二判定部1208における基準点が、三次元仮想空間内において、前記ユーザの操作指示により動作するキャラクタの視点であることにより、ユーザオブジェクトが仮想空間で視認可能なオブジェクトのみを選択可能にすることができ、仮想空間をより現実的に感じさせることができ、ユーザの没入感を高めることができる。
第八の実施の形態の一側面として、コンピュータ装置が属性記憶部1201を備え、選択可を示す属性を有するオブジェクトが、選択可能なオブジェクトとなることで、選択不可の属性を有するオブジェクトを選択候補から排除し、選択可能なオブジェクトのみを間違えることなく選択することができ、ユーザの操作性を向上させることができる。
第八の実施の形態の一側面として、所定の条件を満たした場合にのみ、設定部1210によるオブジェクトの設定が実現可能となることで、ユーザの趣向に合わせた設定が可能となり、ユーザの操作性を向上させることができる。
第八の実施の形態の一側面として、設定部1210の実現の可又は不可を示す属性が実現可能に設定されていることでオブジェクトの設定が実現可能となることで、ユーザの趣向に合わせた設定が可能となり、ユーザの操作性を向上させることができる。
第八の実施の形態の一側面として、ユーザによる所定の入力操作が継続していることでオブジェクトの設定が実現可能となることで、ユーザの趣向に合わせた設定が可能となり、ユーザの操作性を向上させることができる。
第八の実施の形態の一側面として、仮想カメラの視線方向と、三次元仮想空間内において、ユーザの操作指示により動作するキャラクタの視線方向とが異なることで、ユーザキャラクタの状態を客観的に視認することができ、キャラクタの背後の状態を視認できる等、ユーザの視認性を向上させることができる。
第八の実施の形態の一側面として、距離算出部1206及びオブジェクトを選択する選択部1211を備えることで、ユーザの操作を補助して、操作負荷を軽減することができ、ユーザの操作性を向上させることができる。
第八の実施の形態の一側面として、選択部1211及びユーザの入力操作に基づいて、選択されたオブジェクトとは異なるオブジェクトに選択を切り替える手段を備えることで、ユーザのタイミングで選択を切り替えることができ、ユーザの操作性を向上させることができる。
第八の実施の形態において、「入力装置」、「コンピュータ装置」、「三次元仮想空間」、「オブジェクト」、「画像上の位置」、「基準点」、「仮想カメラの視線」、及び「視線を遮る」は、それぞれ第一の実施の形態において記載した内容を必要な範囲で採用できる。
第八の実施の形態において、「所定の入力操作の継続」及び「俯瞰的な視点」とは、それぞれ第四の実施の形態において記載した内容を必要な範囲で採用できる。「端末装置」及び「サーバ装置」は、それぞれ第五の実施の形態において記載した内容を必要な範囲で採用できる。
[付記]
上で述べた実施の形態の説明は、下記の発明を、発明の属する分野における通常の知識を有する者がその実施をすることができるように記載した。
[1] 入力装置を備えるコンピュータ装置において実行されるプログラムであって、
コンピュータ装置を、
三次元仮想空間内を仮想カメラにより撮像した画像を生成する画像生成手段、
ユーザにより入力装置を介して指定された、生成された画像上の位置を取得する位置取得手段、
三次元仮想空間内のオブジェクトの生成された画像上の位置が、位置取得手段において取得された位置と所定の関係にあるか否かを判定する第一判定手段、
三次元仮想空間内において、基準点と前記オブジェクトとの間に、該基準点からの視線を遮る障害オブジェクトが存在するか否かを判定する第二判定手段、
第一判定手段により所定の関係にあると判定され、且つ、第二判定手段により障害オブジェクトが存在しないと判定されたオブジェクトを、ユーザにより選択可能なオブジェクトとして設定する設定手段
として機能させるプログラム。
[2] 第二判定手段における基準点が、三次元仮想空間内を撮像する仮想カメラの視点である、[1]に記載のプログラム。
[3] 第二判定手段における基準点が、三次元仮想空間内において、前記ユーザの操作指示により動作するキャラクタの視点である、[1]に記載のプログラム。
[4] コンピュータ装置をさらに、
三次元仮想空間内のオブジェクトの選択の可又は不可を示す、オブジェクト毎の属性を記憶する属性記憶手段
として機能させ、
選択可を示す属性を有するオブジェクトが、選択可能なオブジェクトとなる、[1]〜[3]のいずれかに記載のプログラム。
[5] 所定の条件を満たした場合にのみ、設定手段によるオブジェクトの設定が実現可能である、[1]〜[4]のいずれかに記載のプログラム。
[6] 前記所定の条件が、前記設定手段の実現の可又は不可を示す属性が実現可能に設定されていることである、[5]に記載のプログラム。
[7] 前記所定の条件が、ユーザによる所定の入力操作が継続していることである、[5]に記載のプログラム。
[8] 前記仮想カメラの視線方向と、三次元仮想空間内において、前記ユーザの操作指示により動作するキャラクタの視線方向とが異なる、[1]〜[7]のいずれかに記載のプログラム。
[9] コンピュータ装置をさらに、
前記位置取得手段により取得された位置と、前記設定手段により設定されたオブジェクトの画像上の位置との距離を算出する距離算出手段、
前記設定手段により設定されたオブジェクトのうち、前記位置取得手段において取得された位置から最も距離が短い位置にあるオブジェクトを、選択する自動選択手段
として機能させる、[1]〜[8]のいずれかに記載のプログラム。
[10] コンピュータ装置をさらに、
前記設定手段により設定されたオブジェクトを選択する選択手段、
前記設定手段により設定されたオブジェクトが複数存在する場合に、ユーザによる所定の入力操作に基づいて、選択されたオブジェクトとは異なるオブジェクトに選択を切り替える選択切替手段
として機能させる、[1]〜[9]のいずれかに記載のプログラム。
[11] 入力装置を備えるコンピュータ装置であって、
三次元仮想空間内を仮想カメラにより撮像した画像を生成する画像生成手段と、
ユーザにより入力装置を介して指定された、生成された画像上の位置を取得する位置取得手段と、
三次元仮想空間内のオブジェクトの生成された画像上の位置が、位置取得手段において取得された位置と所定の関係にあるか否かを判定する第一判定手段と、
三次元仮想空間内において、基準点と前記オブジェクトとの間に、該基準点からの視線を遮る障害オブジェクトが存在するか否かを判定する第二判定手段と、
第一判定手段により所定の関係にあると判定され、且つ、第二判定手段により障害オブジェクトが存在しないと判定されたオブジェクトを、ユーザにより選択可能なオブジェクトとして設定する設定手段と
を備えるコンピュータ装置。
[12] 入力装置を備えるコンピュータ装置における制御方法であって、
三次元仮想空間内を仮想カメラにより撮像した画像を生成する画像生成手段と、
ユーザにより入力装置を介して指定された、生成された画像上の位置を取得する位置取得手段と、
三次元仮想空間内のオブジェクトの生成された画像上の位置が、位置取得手段において取得された位置と所定の関係にあるか否かを判定する第一判定手段と、
三次元仮想空間内において、基準点と前記オブジェクトとの間に、該基準点からの視線を遮る障害オブジェクトが存在するか否かを判定する第二判定手段と、
第一判定手段により所定の関係にあると判定され、且つ、第二判定手段により障害オブジェクトが存在しないと判定されたオブジェクトを、ユーザにより選択可能なオブジェクトとして設定する設定手段と
を有する制御方法。
[13] 入力装置を備える端末装置と、該端末装置と通信により接続可能なサーバ装置とを備えるシステムの、該サーバ装置において実行されるプログラムであって、
サーバ装置を、
三次元仮想空間内を仮想カメラにより撮像した画像を生成する画像生成手段、
ユーザにより入力装置を介して指定された、生成された画像上の位置を取得する位置取得手段、
三次元仮想空間内のオブジェクトの生成された画像上の位置が、位置取得手段において取得された位置と所定の関係にあるか否かを判定する第一判定手段、
三次元仮想空間内において、基準点と前記オブジェクトとの間に、該基準点からの視線を遮る障害オブジェクトが存在するか否かを判定する第二判定手段、
第一判定手段により所定の関係にあると判定され、且つ、第二判定手段により障害オブジェクトが存在しないと判定されたオブジェクトを、ユーザにより選択可能なオブジェクトとして設定する設定手段
として機能させるプログラム。
[14] [13]に記載のプログラムをインストールしたサーバ装置。
[15] 入力装置を備える端末装置と、該端末装置と通信により接続可能なサーバ装置とを備えるシステムであって、
三次元仮想空間内を仮想カメラにより撮像した画像を生成する画像生成手段と、
ユーザにより入力装置を介して指定された、生成された画像上の位置を取得する位置取得手段と、
三次元仮想空間内のオブジェクトの生成された画像上の位置が、位置取得手段において取得された位置と所定の関係にあるか否かを判定する第一判定手段と、
三次元仮想空間内において、基準点と前記オブジェクトとの間に、該基準点からの視線を遮る障害オブジェクトが存在するか否かを判定する第二判定手段と、
第一判定手段により所定の関係にあると判定され、且つ、第二判定手段により障害オブジェクトが存在しないと判定されたオブジェクトを、ユーザにより選択可能なオブジェクトとして設定する設定手段と
を備えるシステム。
[16] 入力装置を備える端末装置と、該端末装置と通信により接続可能なサーバ装置とを備えるシステムの、該端末装置において実行されるプログラムであって、
端末装置を、
三次元仮想空間内を仮想カメラにより撮像した画像を生成する画像生成手段、
ユーザにより入力装置を介して指定された、生成された画像上の位置を取得する位置取得手段、
三次元仮想空間内のオブジェクトの生成された画像上の位置が、位置取得手段において取得された位置と所定の関係にあるか否かを判定する第一判定手段、
三次元仮想空間内において、基準点と前記オブジェクトとの間に、該基準点からの視線を遮る障害オブジェクトが存在するか否かを判定する第二判定手段、
第一判定手段により所定の関係にあると判定され、且つ、第二判定手段により障害オブジェクトが存在しないと判定されたオブジェクトを、ユーザにより選択可能なオブジェクトとして設定する設定手段
として機能させる、プログラム。
[17] [16]に記載のプログラムをインストールした端末装置。
[18] 入力装置を備える端末装置と、該端末装置と通信により接続可能なサーバ装置とを備えるシステムの、該サーバ装置において実行される制御方法であって、
三次元仮想空間内を仮想カメラにより撮像した画像を生成する画像生成手段と、
ユーザにより入力装置を介して指定された、生成された画像上の位置を取得する位置取得手段と、
三次元仮想空間内のオブジェクトの生成された画像上の位置が、位置取得手段において取得された位置と所定の関係にあるか否かを判定する第一判定手段と、
三次元仮想空間内において、基準点と前記オブジェクトとの間に、該基準点からの視線を遮る障害オブジェクトが存在するか否かを判定する第二判定手段と、
第一判定手段により所定の関係にあると判定され、且つ、第二判定手段により障害オブジェクトが存在しないと判定されたオブジェクトを、ユーザにより選択可能なオブジェクトとして設定する設定手段と
を有する制御方法。
[19] 入力装置を備える端末装置と、該端末装置と通信により接続可能なサーバ装置とを備えるシステムにおいて実行される制御方法であって、
三次元仮想空間内を仮想カメラにより撮像した画像を生成する画像生成手段と、
ユーザにより入力装置を介して指定された、生成された画像上の位置を取得する位置取得手段と、
三次元仮想空間内のオブジェクトの生成された画像上の位置が、位置取得手段において取得された位置と所定の関係にあるか否かを判定する第一判定手段と、
三次元仮想空間内において、基準点と前記オブジェクトとの間に、該基準点からの視線を遮る障害オブジェクトが存在するか否かを判定する第二判定手段と、
第一判定手段により所定の関係にあると判定され、且つ、第二判定手段により障害オブジェクトが存在しないと判定されたオブジェクトを、ユーザにより選択可能なオブジェクトとして設定する設定手段と
を有する制御方法。
1 コンピュータ装置
2 通信ネットワーク
3 サーバ装置
4 システム
5 端末装置
11 制御部
12 RAM
13 ストレージ部
14 サウンド処理部
15 グラフィックス処理部
16 外部記憶媒体読込部
17 通信インタフェース
18 インタフェース部
20 入力部
21 サウンド出力装置
22 表示装置
23 表示画面
24 外部記憶媒体
31 制御部
32 RAM
33 ストレージ部
34 通信インタフェース
50 ゲーム画面

Claims (8)

  1. 入力装置を備えるコンピュータ装置において実行されるプログラムであって、
    コンピュータ装置を、
    三次元仮想空間内を仮想カメラにより撮像した画像を生成する画像生成手段、
    ユーザにより入力装置を介して指定された、生成された画像上の位置を取得する位置取得手段、
    三次元仮想空間内のオブジェクトの生成された画像上の位置が、位置取得手段において取得された位置と所定の関係にあるか否かを判定する第一判定手段、
    三次元仮想空間内において、基準点と前記オブジェクトとの間に、該基準点からの視線を遮る障害オブジェクトが存在するか否かを判定する第二判定手段、
    第一判定手段により所定の関係にあると判定され、且つ、第二判定手段により障害オブジェクトが存在しないと判定されたオブジェクトを、ユーザにより選択可能なオブジェクトとして設定する設定手段
    として機能させるプログラム。
  2. 第二判定手段における基準点が、三次元仮想空間内を撮像する仮想カメラの視点である、請求項1に記載のプログラム。
  3. コンピュータ装置をさらに、
    三次元仮想空間内のオブジェクトの選択の可又は不可を示す、オブジェクト毎の属性を記憶する属性記憶手段
    として機能させ、
    選択可を示す属性を有するオブジェクトが、選択可能なオブジェクトとなる、請求項1又は2に記載のプログラム。
  4. 所定の条件を満たした場合にのみ、設定手段によるオブジェクトの設定が実現可能である、請求項1〜3のいずれかに記載のプログラム。
  5. 前記所定の条件が、前記設定手段の実現の可又は不可を示す属性が実現可能に設定されていることである、請求項4に記載のプログラム。
  6. 前記所定の条件が、ユーザによる所定の入力操作が継続していることである、請求項4に記載のプログラム。
  7. 入力装置を備えるコンピュータ装置であって、
    三次元仮想空間内を仮想カメラにより撮像した画像を生成する画像生成手段と、
    ユーザにより入力装置を介して指定された、生成された画像上の位置を取得する位置取得手段と、
    三次元仮想空間内のオブジェクトの生成された画像上の位置が、位置取得手段において取得された位置と所定の関係にあるか否かを判定する第一判定手段と、
    三次元仮想空間内において、基準点と前記オブジェクトとの間に、該基準点からの視線を遮る障害オブジェクトが存在するか否かを判定する第二判定手段と、
    第一判定手段により所定の関係にあると判定され、且つ、第二判定手段により障害オブジェクトが存在しないと判定されたオブジェクトを、ユーザにより選択可能なオブジェクトとして設定する設定手段と
    を備えるコンピュータ装置。
  8. 入力装置を備えるコンピュータ装置における制御方法であって、
    三次元仮想空間内を仮想カメラにより撮像した画像を生成する画像生成手段と、
    ユーザにより入力装置を介して指定された、生成された画像上の位置を取得する位置取得手段と、
    三次元仮想空間内のオブジェクトの生成された画像上の位置が、位置取得手段において取得された位置と所定の関係にあるか否かを判定する第一判定手段と、
    三次元仮想空間内において、基準点と前記オブジェクトとの間に、該基準点からの視線を遮る障害オブジェクトが存在するか否かを判定する第二判定手段と、
    第一判定手段により所定の関係にあると判定され、且つ、第二判定手段により障害オブジェクトが存在しないと判定されたオブジェクトを、ユーザにより選択可能なオブジェクトとして設定する設定手段と
    を有する制御方法。
JP2019191467A 2019-10-18 2019-10-18 プログラム、コンピュータ装置、及び制御方法 Active JP6829298B1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019191467A JP6829298B1 (ja) 2019-10-18 2019-10-18 プログラム、コンピュータ装置、及び制御方法
US17/033,716 US20210117070A1 (en) 2019-10-18 2020-09-26 Computer-readable recording medium, computer apparatus, and method of controlling

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019191467A JP6829298B1 (ja) 2019-10-18 2019-10-18 プログラム、コンピュータ装置、及び制御方法

Publications (2)

Publication Number Publication Date
JP6829298B1 JP6829298B1 (ja) 2021-02-10
JP2021068057A true JP2021068057A (ja) 2021-04-30

Family

ID=74529629

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019191467A Active JP6829298B1 (ja) 2019-10-18 2019-10-18 プログラム、コンピュータ装置、及び制御方法

Country Status (2)

Country Link
US (1) US20210117070A1 (ja)
JP (1) JP6829298B1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110393916B (zh) * 2019-07-26 2023-03-14 腾讯科技(深圳)有限公司 视角转动的方法、装置、设备及存储介质
US20220203231A1 (en) * 2020-12-30 2022-06-30 Activision Publishing, Inc. Methods and Systems for Determining Decal Projections Intersecting Spacial Units in a Frame of a Game Space

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002253848A (ja) * 2001-02-27 2002-09-10 Square Co Ltd ビデオゲーム装置およびその制御方法、ならびにビデオゲームのプログラムおよびそのプログラムを記録したコンピュータ読取り可能な記録媒体。
JP2002360920A (ja) * 2001-06-05 2002-12-17 Atlus Co Ltd ゲーム画像制御装置
JP2005309948A (ja) * 2004-04-23 2005-11-04 Yamaha Corp 情報提供装置
JP2011212123A (ja) * 2010-03-31 2011-10-27 Namco Bandai Games Inc プログラム、情報記憶媒体、及び端末
JP2014235596A (ja) * 2013-06-03 2014-12-15 任天堂株式会社 情報処理プログラム、情報処理システム、情報処理装置、および情報処理方法
JP2017068438A (ja) * 2015-09-29 2017-04-06 株式会社コロプラ シルエットを生成するためのコンピュータ・プログラムおよびコンピュータ実装方法
US20190209923A1 (en) * 2016-12-06 2019-07-11 Tencent Technology (Shenzhen) Company Limited Image processing method and apparatus

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002253848A (ja) * 2001-02-27 2002-09-10 Square Co Ltd ビデオゲーム装置およびその制御方法、ならびにビデオゲームのプログラムおよびそのプログラムを記録したコンピュータ読取り可能な記録媒体。
JP2002360920A (ja) * 2001-06-05 2002-12-17 Atlus Co Ltd ゲーム画像制御装置
JP2005309948A (ja) * 2004-04-23 2005-11-04 Yamaha Corp 情報提供装置
JP2011212123A (ja) * 2010-03-31 2011-10-27 Namco Bandai Games Inc プログラム、情報記憶媒体、及び端末
JP2014235596A (ja) * 2013-06-03 2014-12-15 任天堂株式会社 情報処理プログラム、情報処理システム、情報処理装置、および情報処理方法
JP2017068438A (ja) * 2015-09-29 2017-04-06 株式会社コロプラ シルエットを生成するためのコンピュータ・プログラムおよびコンピュータ実装方法
US20190209923A1 (en) * 2016-12-06 2019-07-11 Tencent Technology (Shenzhen) Company Limited Image processing method and apparatus

Also Published As

Publication number Publication date
JP6829298B1 (ja) 2021-02-10
US20210117070A1 (en) 2021-04-22

Similar Documents

Publication Publication Date Title
US11488362B2 (en) Information processing device, client device, information processing method, and program
US10529134B2 (en) Information processing device, client device, information processing method, and program
JP6058184B1 (ja) ヘッドマウントディスプレイシステムを制御するための方法、および、プログラム
US10850196B2 (en) Terminal device
JP5813948B2 (ja) プログラム及び端末装置
US20140218361A1 (en) Information processing device, client device, information processing method, and program
JP6679523B2 (ja) 画像処理プログラム、画像処理システム、画像処理装置および画像処理方法
US11194400B2 (en) Gesture display method and apparatus for virtual reality scene
WO2018103634A1 (zh) 一种数据处理的方法及移动终端
JP4863435B2 (ja) ゲームプログラム、ゲーム装置、ゲームシステム、およびゲーム処理方法
CN111158469A (zh) 视角切换方法、装置、终端设备及存储介质
JP2002196855A (ja) 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
WO2018103633A1 (zh) 一种图像处理的方法及装置
CN113426124B (zh) 游戏中的显示控制方法、装置、存储介质及计算机设备
JP6829298B1 (ja) プログラム、コンピュータ装置、及び制御方法
WO2020156252A1 (zh) 在虚拟环境中建造建筑物的方法、装置、设备及存储介质
JP2019136358A (ja) ゲームシステム及びプログラム
WO2023103615A1 (zh) 虚拟对象的切换方法、装置、设备、介质及程序产品
CN103785169A (zh) 混合现实的竞技场
TW202243713A (zh) 虛擬物件的控制方法與裝置、電子設備、非臨時性電腦可讀存儲介質及電腦程式產品
CN114053693B (zh) 虚拟场景中的对象控制方法、装置及终端设备
JP5479503B2 (ja) プログラム、情報記憶媒体及び画像生成装置
WO2018043693A1 (ja) ゲームプログラム、方法および情報処理装置
CN114159785A (zh) 虚拟道具丢弃方法、装置、电子设备和存储介质
JP6894566B1 (ja) プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191021

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200902

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210121

R150 Certificate of patent or registration of utility model

Ref document number: 6829298

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250