JP2022183035A - ゲームの対象をターゲティングする方法及び装置{method and apparatus for targeting objects of a game} - Google Patents

ゲームの対象をターゲティングする方法及び装置{method and apparatus for targeting objects of a game} Download PDF

Info

Publication number
JP2022183035A
JP2022183035A JP2022078697A JP2022078697A JP2022183035A JP 2022183035 A JP2022183035 A JP 2022183035A JP 2022078697 A JP2022078697 A JP 2022078697A JP 2022078697 A JP2022078697 A JP 2022078697A JP 2022183035 A JP2022183035 A JP 2022183035A
Authority
JP
Japan
Prior art keywords
targeting
input
user
screen
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022078697A
Other languages
English (en)
Other versions
JP7373607B2 (ja
Inventor
カン,ヒュン・ク
Hyun Ku Kang
キム,キュン・ファン
Kyung Hwan Kim
キム,ジョン・ス
Jong Soo Kim
ベ,スン・フン
Sung Heun Bae
ソン,ウォン・ジョン
Won Jong Son
ヤン,ファン・ユイ
Hwan Eui Yang
イ,ヨン・キ
Yong Ki Lee
リム,ス・ジェ
Su Jae Lim
ジャン,スン・ウォン
Sung Won Jang
チョウ,ウ・ヨン
Woo Young Cho
チョイ,ウォン・ミン
Won Min Choi
チョイ,ジュン・ロク
Jung Rok Choi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NCSoft Corp
Original Assignee
NCSoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020210068861A external-priority patent/KR102666778B1/ko
Application filed by NCSoft Corp filed Critical NCSoft Corp
Publication of JP2022183035A publication Critical patent/JP2022183035A/ja
Application granted granted Critical
Publication of JP7373607B2 publication Critical patent/JP7373607B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/833Hand-to-hand fighting, e.g. martial arts competition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/426Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/422Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle automatically for the purpose of assisting the player, e.g. automatic braking in a driving game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/533Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game for prompting the player, e.g. by displaying a game menu
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • A63F13/5372Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for tagging characters, objects or locations in the game scene, e.g. displaying a circle under the character controlled by the player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/822Strategy games; Role-playing games
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/837Shooting of targets
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1068Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad
    • A63F2300/1075Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad using a touch screen
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/303Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device for displaying additional data, e.g. simulating a Head Up Display
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6045Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/807Role playing or strategy games
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8076Shooting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Economics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】ゲームの対象をターゲティングする方法及び装置を提供する。【解決手段】ゲームの対象をターゲティング(targeting)する方法及び装置であって、ユーザの第1入力に基づいて第1ターゲティング領域の中心点を設定し、中心点を基準にしてユーザ端末の画面に閉曲線で囲まれた第1ターゲティング領域を表示し、第1ターゲティング領域内に位置する少なくとも1つの対象を含むリストを画面に表示し、第1入力の後に受信されるユーザの第2入力に基づいて第1ターゲティング領域を移動させる方法及び装置を開示する。【選択図】図2

Description

以下の実施形態は、ゲームの対象をターゲティングする方法及び装置に関する。
コンピューティングデバイス及びネットワーク環境の発達に伴い、様々な有無線通信機器を利用したオンラインベースのゲームを楽しむユーザが大きく増加している。ユーザは、有無線通信機器を介してゲームサーバが提供するゲーム環境でキャラクターをプレイすることで、ゲームに対する興味を感じることができる。
ロールプレイングゲーム(RPG:Role Playing Game)は、インターネットを介して接続された多数の端末ユーザが仮想のキャラクターを利用しながら所定のミッションと役割を遂行するなどの行為をすることで楽しむゲームである。また、多数のユーザが同時に参加するRPGをMMORPG(Massively Multiplayer Online Role Playing Game)という。ゲーム内のストーリー又は自由度を楽しむシングルプレイRPGとは異なり、MMORPGは大規模な攻城戦、パーティープレイなどユーザ間の相互作用を強調する。
このようなオンラインゲームにおいて、ユーザは自分のプレイヤーキャラクターを利用して他のユーザのキャラクターやNPC(Non-Player Character)と戦闘を繰り広げたり、猟を行うのに、ユーザの入力信号によって攻撃対象を決定することをターゲティング(targeting)という。
上述した背景技術は、発明者が本発明の導出のために保持していたり、本発明の導出過程で習得した技術情報であって、必ずしも本発明の出願前に一般公衆に公開された公知技術とは限らない。
ゲームの対象をターゲティングする方法及び装置を提供することにある。
本発明が解決しようとする課題は、以上で挙げた課題に限定されず、言及されていない本発明の他の課題及びメリットは、以下の説明によって理解することができ、本発明の実施例によってより明らかに理解されることとなろう。また、本発明が解決しようとする課題及びメリットは、特許請求の範囲に示された手段及びその組み合わせによって実現できることがわかる。
上述した技術的課題を達成するための技術的手段として、本開示の第1の態様は、ゲームの対象をターゲティング(targeting)する方法において、ユーザの第1入力に基づいて第1ターゲティング領域の中心点を設定する動作と、前記中心点を基準にしてユーザ端末の画面に閉曲線で囲まれた第1ターゲティング領域を表示する動作と、前記第1ターゲティング領域内に位置する少なくとも1つの対象を含むリストを画面に表示する動作、及び前記第1入力の後に受信される前記ユーザの第2入力に基づいて前記第1ターゲティングの領域を移動させる動作を含むことができる。
また、前記第1入力は、既設定された時間以上、画面の第1位置をタッチするロングプレス入力に該当し、前記第1ターゲティング領域は、前記第1位置を中心点として第1距離だけ離れた円形の閉曲線で囲まれた領域に該当し得る。
また、前記第1ターゲティング領域を平行移動させた第2ターゲティング領域を前記画面に表示する動作をさらに含み、前記第2入力は前記画面でタッチの位置を前記第1位置と異なる第2位置にドラッグする入力に該当し、前記第2ターゲティング領域は、前記第2位置を中心点として、前記第1距離だけ離れた円形の閉曲線で囲まれた領域に該当し得る。
また、前記第2入力が終了する場合、前記第2ターゲティング領域に含まれる少なくとも1つの対象に対する攻撃を自動的に行う動作をさらに含み、前記第2入力は前記ドラッグする入力のうち、前記画面に対するタッチを解除(release)する場合に終了することができる。
また、前記リストを前記画面に表示する動作は、前記第1ターゲティング領域に2つ以上の対象が位置する場合、前記対象のタイプに対して前記ユーザが既設定した優先順位情報を受信するステップと、前記優先順位情報に基づいて前記対象間の順序を決定するステップ、及び前記決定された順序に基づいて前記リストを表示するステップを含むことができる。
また、前記順序を決定するステップは、前記第1ターゲティング領域に同一タイプに該当する対象が位置する場合、前記同一タイプに属する対象それぞれに対して、対象と前記中心点との間の距離に基づいて前記順序を決定することができる。
また、前記第1ターゲティング領域内に位置する少なくとも1つの対象を前記第1ターゲティング領域に位置しない対象と区別されるように色を変更して表示する動作、及び前記少なくとも1つの対象の中で最も高い優先順位を有する第1対象に隣接する位置に前記第1対象の形状と区別される形を表示する動作をさらに含むことができる。
本開示の第2の態様は、ゲームを実行する装置において、少なくとも1つのプログラムが保存されているメモリ、及び前記少なくとも1つのプログラムを実行することによって演算を行うプロセッサを含み、前記プロセッサは、ユーザの第1入力に基づいて第1ターゲティング領域の中心点を設定し、前記中心点を基準にしてユーザ端末の画面に閉曲線で囲まれた第1ターゲティング領域を表示し、前記第1ターゲティング領域内に位置する少なくとも1つの対象を含むリストを前記画面に表示し、前記第1入力の後に受信される前記ユーザの第2入力に基づいて前記第1ターゲティング領域を移動させることができる。
本開示の第3の態様は、第1の態様による方法をコンピュータで実行するためのプログラムを記録したコンピュータで読み取り可能な記録媒体を提供することができる。
上述した本開示の課題を解決するための手段によれば、ゲームサーバは、ユーザの第1入力に基づいてターゲティング領域を形成し、ユーザの別途操作なしにターゲティング領域に位置する対象に対して自動的に攻撃を行うようにすることで、ターゲティングの利便性を向上させることができる。
本開示の他の課題を解決するための手段の1つによれば、ゲームサーバは、ターゲティング領域に含まれる対象のタイプに対して既設定された優先順位情報に基づいて対象を攻撃する順序を決定するので、ターゲティングの速度を向上させることができる。
本開示の他の課題を解決するための手段の一つによれば、ゲームサーバは、攻撃しようとする対象がターゲティング範囲内に位置するようにターゲティング領域をリアルタイムで移動させることができるため、MMORPG(Massively Multiplayer Online Role Playing Game)で最適化されたターゲティング方法を提供することができる。
ユーザ端末及びゲームサーバを含むシステムの一例を示す図である。 ゲームの対象をターゲティング(targeting)する方法の一例を示すフローチャートである。 ターゲティング領域のサイズを設定する一例を示す図である。 ターゲティング領域を表示する一例を示す図である。 第1入力が終了した場合に対象に対する攻撃を行う一例を示す図である。 ターゲティング領域をリアルタイムで移動させる一例を示す図である。 第1入力が終了した場合に対象に対する攻撃を行う一例を示す図である。 ターゲティング領域に位置する対象間の順序を決定する一例を示すフローチャートである。 ターゲティング領域に位置する対象のタイプが同一である場合に対象間の順序を決定する一例を示す図である。 ユーザが対象のタイプに対して優先順位を設定する一例を示す図である。 ターゲティング領域に位置する対象のタイプが同一でない場合に対象間の順序を決定する一例を示す図である。 ユーザの追加入力により対象の順序が変更される一例を示す図である。 サーバのブロック図の一例を示すフローチャートである。
本発明のメリット及び特徴、並びにそれらを達成する方法は、添付の図面と共に詳細に説明される実施形態を参照すれば明らかになるであろう。しかしながら、本発明は、以下に提示される実施形態に限定されるものではなく、異なる様々な形態で実装することができ、本発明の思想及び技術範囲に含まれる全ての変換、等価物ないし代替物を含むものと理解すべきである。
本出願で使用される用語は、単に特定の実施形態を説明するために使用されたものであり、本発明を限定する意図ではない。単数の表現は、文脈上明らかに別段の意味を持たない限り、複数の表現を含む。本出願において、「含む」又は「有する」などの用語は、本明細書に記載の特徴、数字、ステップ、動作、構成要素、部品、又はそれらを組み合わせたものが存在することを指定するものであり、1つ又はそれ以上の他の特徴や数字、ステップ、動作、構成要素、部品、又はそれらを組み合わせたものの存在又は追加の可能性を予め排除しないことと理解されるべきである。
本開示の一部の実施形態は、機能的なブロック構成及び様々な処理ステップで示されることができる。そのような機能ブロックの一部又は全部は、特定の機能を実行する様々な数のハードウェア及び/又はソフトウェア構成で実装することができる。 例えば、本開示の機能ブロックは、1つ以上のマイクロプロセッサによって実装されるか、所定の機能のための回路構成によって実装されることがある。また、例えば、本開示の機能ブロックは、様々なプログラミング又はスクリプト言語で実装することができる。機能ブロックは、1つ以上のプロセッサで実行されるアルゴリズムで実装することができる。また、本開示は、電子的な環境設定、信号処理、及び/又はデータ処理などのために従来技術を採用することができる。「メカニズム」、「要素」、「手段」、及び「構成」といった用語は広く使用でき、機械的かつ物理的な構成に限定されるものではない。
また、図面に示されている構成要素間の接続線又は接続部材は、機能的な接続及び/又は物理的又は回路的接続を例示的に示したものにすぎない。実際の装置では、代替可能であるか、追加された様々な機能的接続、物理的接続、又は回路接続によって構成要素間の接続が示されることがある。
以下でユーザが行う動作は、ユーザがユーザ端末を介して行う動作を意味することができる。一例として、ユーザ端末に埋め込まれたり、追加的に接続された入力装置(例えば、キーボード、マウスなど)を介して、ユーザが行う動作に対応するコマンド(command)をユーザ端末に入力することができる。別の例として、ユーザ端末のタッチスクリーンを介して、ユーザが行う動作に対応するコマンドをユーザ端末に入力することができる。このとき、ユーザが行う動作は、所定のジェスチャーを含むことができる。例えば、ジェスチャーは、タップ、タッチ&ホールド、ダブルタップ、ドラッグ、パン、フリック、ドラッグ&ドロップなどが含まれる。
以下、添付の図面を参照して本開示を詳細に説明する。
図1は、ユーザ端末及びゲームサーバを含むシステムの一例を示す図である。
一実施形態によるシステムは、複数のユーザ端末1000及びゲームサーバ2000を含むことができる。
ユーザ端末1000は、ネットワークを介して互いに通信してもよいし、他のノードと通信してもよい。
ユーザ端末1000は、スマートフォン、タブレットPC、PC、スマートTV、携帯電話、ラップトップ及び他のモバイル又は非モバイルコンピューティングデバイスであり得る。また、ユーザ端末1000は、通信機能及びデータプロセッシング機能を備えたメガネ、ヘアバンドなどのウェアラブルデバイスであってもよい。ユーザ端末1000は、ネットワークを介して他の装置と通信を行うことができるあらゆる種類のデバイスを含むことができる。
例えば、ユーザ端末1000はタッチスクリーンを備えてタッチ入力手段を含んでもよい。タッチスクリーンとは、ユーザのジェスチャーを通じて所定の情報を入力することができる画面を意味し、ユーザのジェスチャーにはタップ(tap)、ダブルタップ(double tap)、プレス(press:touch&hold)、ロングプレス(long press)、ドラッグ(drag)、パン(pan)、フリック(flick)、ドラッグ&ドロップ(drag&drop)、リリース(release)などがある。
ゲームサーバ2000は、ネットワークを介して通信し、コマンド、コード、ファイル、コンテンツ、サービスなどを提供するコンピュータ装置又は複数のコンピュータ装置で実装することができる。
ユーザ端末1000及びゲームサーバ2000はネットワークを用いて通信を行うことができる。ゲームサーバ2000は、ネットワークを介してユーザ端末1000とゲームのデータをやり取りし、ユーザがユーザ端末1000を介してゲームをプレイできるシステムを提供することができる。
ユーザ端末1000は、ユーザ端末1000にインストールされたゲームアプリケーション及びゲーム実行プログラムを介してゲームサーバ2000に接続することができる。また、ユーザ端末1000は、ウェブベースのゲームストリーミングプラットフォームを介してゲームサーバ2000に接続することができる。しかしながら、ゲームサーバ2000に接続する方法はこれに限定されない。
一方、ユーザ端末1000のユーザは、自分のプレイヤキャラクターを用いて他のユーザのキャラクターやNPC(Non-Player Character)と戦闘を繰り広げたり猟を行うことができる。このとき、ユーザの入力信号によって攻撃の対象を決定することをターゲティング(targeting)と呼ぶ。
対象は、ゲームに登場するオブジェクト(object)のうち、ユーザのプレイヤキャラクターが攻撃できるオブジェクトを意味してもよい。例えば、対象は、ゲームに登場するモンスター(monster)又は他のユーザによって制御される他のキャラクターであってもよいが、キャラクターが攻撃できる対象であれば制限なく含まれることができる。
接続するユーザの数が多いゲームでは、画面に表示されているフィールド内に様々なタイプのオブジェクトが存在することができる。例えば、同盟血盟員、敵対血盟員、モンスター、NPC(Non-Player Character)など様々なタイプの対象が画面に同時に現れることができる。
したがって、画面内の様々な対象の中でユーザのキャラクターが攻撃しようとする対象を正確にターゲティングにすることが、ゲームを行うのに重要な要素となり得る。また、同盟血盟員又は敵対血盟員が密集した団体戦闘が行われる場合には、速い攻撃が必要であるため、ターゲティングのための動線を最小化することも重要な要素となり得る。
ネットワークには、ローカルエリアネットワーク(Local Area Network:LAN)、ワイドエリアネットワーク(Wide Area Network:WAN)、付加価値通信網(Value Added Network:VAN)、移動無線通信網(mobile radio communication network)、衛星通信ネットワーク、及びそれらの相互組み合わせを含み、図1に示された各ネットワーク構成主体が互いにスムーズに通信を可能にする包括的な意味のデータ通信網であり、有線インターネット、無線インターネット及びモバイル無線通信網を含むことができる。また、無線通信は、例えば、無線LAN(Wi-Fi)、ブルートゥース、ブルートゥースローエナジー(Bluetooth low energy:BLE)、ジクビー(Zigbee)、WFD(Wi-Fi Direct)、UWB(ultra wideband)、赤外線通信(IrDA:infrared Data Association)、NFC(Near Field Communication)などがあるが、これに限定されるものではない。
図2は、ゲームの対象をターゲティング(targeting)する方法の一例を示すフローチャートである。
図2を参照すると、ゲームの対象をターゲティング(targeting)する方法は、図1のユーザ端末1000又はゲームサーバ2000で時系列的に処理されるステップを含むことができる。
ステップ210において、ユーザ端末1000は、ユーザの第1入力に基づいて第1ターゲティング領域の中心点を設定することができる。
第1入力は、ユーザがタッチ入力手段を介して入力できるジェスチャーのうちの1つであり、予め設定された入力であってもよく、ゲームプレイのための他の入力コマンドと区別されるジェスチャーに設定されてもよい。例えば、第1入力は、既設定された時間以上、ユーザ端末1000の画面の第1位置をタッチするロングプレス入力に該当し得るが、これに限定されない。
すなわち、ユーザ端末1000のゲーム画面内で他のUIメニューに影響を与えない位置で第1入力が受信されると、ユーザ端末1000は、ターゲティング領域の中心点の設定を指示する入力として認識することができる。ユーザ端末1000は、第1位置をタッチするロングプレス入力が受信された場合、第1位置をターゲティング領域の中心点として設定することができる。
ステップ220において、ユーザ端末1000は、中心点を基準にしてユーザ端末の画面に閉曲線で囲まれた第1ターゲティング領域を表示することができる。
第1ターゲティング領域は、中心点を基準にして任意の閉曲線で囲まれた領域に該当し得る。例えば、第1位置をタッチするロングプレス入力が受信された場合、第1ターゲティング領域は、第1位置を中心点として第1距離だけ離れた円形の閉曲線で囲まれた領域に該当し得るが、これに限定されるものではない。
一方、第1距離は、ユーザ端末1000のユーザによって既設定された値に該当してもよい。ユーザは、ゲームを行うことにおいて、戦略によってターゲティング領域のサイズを異なるように調整することができ、ターゲティング領域のサイズは第1距離を異なるように設定することによって調整することができる。
図3は、ターゲティング領域のサイズを設定する一例を示す図である。
図3を参照すると、ユーザは、ターゲティング領域のサイズを調整できる設定画面300から第1距離を調整することができる。
例えば、ユーザは、設定画面に示されたバー310で最小サイズの第1距離を設定する点311~最大サイズの第1距離を設定する点315のいずれかの点をタップ(tap)して第1距離を調整することができる。
ターゲティング領域のサイズは、ユーザがいずれかの点を選択した後に確認ボタンを押す場合、ユーザが設定した第1距離に基づいて決定することができる。
一方、上述したように、ユーザによって既設定された第1距離に基づいてターゲティング領域のサイズを決定することができるが、ユーザはリアルタイムでターゲティング領域のサイズを調整することもできる。例えば、ユーザは、第1位置をタッチするロングプレス以後、タッチ状態を維持しながらマウスのホイールを調整することによってリアルタイムでターゲティング領域のサイズを調整することができる。しかしながら、リアルタイムでターゲティング領域のサイズを調整する方法は様々であり、上述の通りに限定されるわけではない。
再び図2に戻り、ステップ230において、ユーザ端末1000は、第1ターゲティング領域内に位置する少なくとも1つの対象を含むリストを画面に表示することができる。
例えば、リストは、第1ターゲティング領域内に位置する対象の全てを含んでもよい。又は、リストは、第1ターゲティング領域内に位置する対象のうち、優先順位の高い順にN(Nは自然数)個の対象のみを含んでもよい。
第1ターゲティング領域に2つ以上の対象が位置する場合、ユーザ端末1000は、対象のタイプに対してユーザが既設定した優先順位情報を受信することができる。ユーザ端末1000は、優先順位情報に基づいて対象間の順序を決定することができ、決定された順序に基づいてリストを表示することができる。
このとき、対象間の順序は、ユーザがキャラクターを用いて攻撃する攻撃順序を意味することはできるが、これに限定されるわけではなく、攻撃以外の他のプレイコマンドを行う順序を意味することもできる。
第1ターゲティング領域内に位置する対象間の順序を決定する方法については、後述する図6~図10で説明する。
図4Aは、ターゲティング領域を表示する一例を示す図である。
一実施形態によれば、ユーザが第1位置で第1入力のためのジェスチャーを取る場合、第1位置に基づいて第1ターゲティング領域を形成することができる。
図4Aを参照すると、ユーザ端末1000の画面400で、ユーザが第1位置410にロングプレス入力を行う場合、第1位置410を中心点として第1距離420だけ離れた円形の閉曲線で囲まれた第1ターゲティング領域430が表示されている。
また、第1ターゲティング領域430に含まれる少なくとも1つの対象を含むリスト440を画面400の一部に表示することができる。第1ターゲティング領域420に位置する対象が2つ以上である場合、対象間の順序は優先順位の高い順序で決定され、決定された順序に基づいてリスト440を表示することができる。
一方、一実施形態によれば、第1ターゲティング領域430に含まれる少なくとも1つの対象は、第1ターゲティング領域430に位置しない対象と区別されるように色を変更して表示することができる。また、第1ターゲティング領域430に含まれる対象のタイプ別に異なる色で表示することができる。例えば、第1ターゲティング領域430に含まれる対象のタイプが同盟血盟員、敵対血盟員、又は特殊NPCに該当するか否かによって異なる色で表示することができる。
また、一実施形態によれば、リスト440上で最も高い優先順位を有する第1対象450に隣接する位置に第1対象450の形状と区別される形を表示することができる。対象が、ユーザがキャラクターを用いて攻撃する最初の順序に該当する対象であることをユーザに知らせることができる形であれば、対象の形状と区別される形は、制限なく該当することができる。
一実施形態によれば、ユーザが第1入力を終了した場合に、第1ターゲティング領域430は、ユーザ端末1000の画面400から消え得る。さらに、ユーザが第1入力を終了すると同時に、リスト440に含まれる少なくとも1つの対象に対する攻撃を自動的に行うことができる。
図4Bは、第1入力が終了した場合、対象に対する攻撃を行う一例を示す図である。
例えば、ユーザがロングプレスする入力を行っている中で、ユーザ端末1000の画面400に対するタッチを解除(release)する場合に第1入力を終了することができる。図4Bを参照すると、ユーザがユーザ端末1000の画面400に対するタッチを解除する場合、ユーザの別途操作なしにユーザのキャラクター460がリスト440に含まれる少なくとも一つの対象に対する攻撃を自動的に行うことができる。
一方、攻撃は、リスト440に表示された対象間の順序に基づいて進行することができる。図4Bを参照すると、リスト440に含まれる対象に対する攻撃順序が対象のそれぞれの形状の上に表示されている。例えば、ユーザのキャラクター460は、最初の順序に該当する第1対象450に最初に攻撃を行うことができる。
このように、ユーザの第1入力に基づいてターゲティング領域を形成し、ユーザの別途操作なしにターゲティング領域に位置する対象の順序に基づいて自動的に攻撃を行うことにより、ターゲティングの精度を向上させることができ、ターゲティングのための動線を最小化して効率性を図ることができる。
一方、多数の同時接続者がRPG(Role Playing Game)を行うMMORPG(Massively Multiplayer Online Role Playing Game)の特性上、攻撃しようとする対象がリアルタイムで動くことができ、ユーザ端末1000のユーザは攻撃しようとする対象がターゲティング範囲内に位置するようターゲティング範囲を設定することに失敗することもある。この場合、ユーザは、第1入力を終了する前に第2入力を行い、第1ターゲティング領域を所望の位置に移動させることができる。
再び図2に戻ると、ステップ240において、ユーザ端末1000は、第1入力の後に受信された前記ユーザの第2入力に基づいて第1ターゲティング領域を移動させることができる。
一実施形態によれば、第2入力は、ユーザ端末1000の画面で第1ターゲティング領域の中心点である第1位置から第1位置とは異なる第2位置にドラッグする入力に該当し得る。例えば、第2入力は、第1入力が終了する前に行われる入力に該当し得る。すなわち、ユーザが第1入力を行っている中で、ユーザ端末1000の画面に対するタッチを解除する前に第2入力を行う場合、第1ターゲティング領域は第2入力に基づいて移動することができる。
例えば、第2入力は、ユーザ端末1000の画面から第1位置とは異なる第2位置にドラッグする入力に該当し得る。第1入力の後にユーザの第2入力が受信されると、ユーザ端末1000は第1ターゲティング領域を平行移動して、ユーザ端末1000の画面に第2ターゲティング領域を表示することができる。第2ターゲティング領域は、第2位置を中心点として第1距離だけ離れた円形の閉曲線で囲まれた領域に該当し得る。
図5Aは、ターゲティング領域をリアルタイムで移動させる一例を示す図である。
上述した図4Aにおいて、ユーザが敵対血盟員であるキャラクターBB又はキャラクターCCを攻撃する意図があったが、BB又はCCがリアルタイムで移動するにつれて、第1ターゲティング領域430にBB又はCCが位置しない場合を想定することができる。
この場合、図5Aを参照すると、ユーザは、第1位置410にロングプレス入力を行った後、タッチ状態を維持しながらタッチ位置を第1位置410から第2位置510へ移動するドラッグ入力を行うことができる。
第1ターゲティング領域430の中心点は、第1位置410から第2位置510に移動することができ、したがって第1ターゲティング領域430は平行に移動し、第2ターゲティング領域520がユーザ端末1000の画面500に表示されることができる。第2ターゲティング領域520は、第2位置510を中心点として第1距離420だけ離れた円形の閉曲線で囲まれた領域に該当し得る。
これにより、第2ターゲティング領域520に敵対血盟員であるキャラクターAA及びキャラクターBBを含めることができる。したがって、ユーザは、ターゲティング領域を最初からリセットする操作を行わずに、簡単なドラッグ入力を介してターゲティング領域を移動させることによって所望の対象をターゲティングすることができる。
同様に、ユーザ端末1000は、第2ターゲティング領域520に含まれる少なくとも1つの対象を含むリスト530を画面500の一部に表示することができる。第2ターゲティング領域520に位置する対象が2つ以上である場合、対象間の順序は優先順位の高い順序で決定され、決定された順序に基づいてリスト530を表示することができる。
さらに、一実施形態によれば、リスト530上で最も高い優先順位を有する第1対象540であるキャラクターCCに隣接する位置に、キャラクターCCの形状と区別される形541を表示することができる。
図5Bは、第1入力が終了した場合、対象に対する攻撃を行う一例を示す図である。
一実施形態によれば、ユーザが第2入力を終了すると、第2ターゲティング領域520は、ユーザ端末1000の画面500から消えることができる。また、ユーザが第2入力を終了すると同時に、リスト530に含まれる少なくとも1つの対象に対する攻撃を自動的に行うことができる。例えば、ユーザがドラッグ入力を行っている中でユーザ端末1000の画面500に対するタッチを解除すると、第2入力を終了することができる。
図5Bを参照すると、ユーザがユーザ端末1000の画面500に対するタッチを解除する場合、ユーザの別途操作なしにユーザのキャラクター550がリスト530に含まれる少なくとも一つの対象に対する攻撃を自動的に行うことができる。例えば、ユーザのキャラクター550は、リスト530に含まれる複数の対象のうち最も高い優先順位を有する第1対象540であるキャラクターCCに対する攻撃を先に行うことができる。
図6は、ターゲティング領域に位置する対象間の順序を決定する一例を示すフローチャートである。
図6を参照すると、ステップ610において、ユーザ端末1000は、ターゲティング領域内に位置する対象が2つ以上であるか否かを判断することができる。ターゲティング領域内に位置する対象が2つ以上でない場合、ターゲティング領域に位置する対象間の順序を決定することを終了することができる。ターゲティング領域内に位置する対象が2つ以上である場合、ステップ620に進むことができる。
ステップ620において、ユーザ端末1000は、対象のタイプがすべて同一であるか否かを判断することができる。対象のタイプがすべて同一である場合はステップ630に進み、対象のタイプがすべて同一でない場合はステップ640に進むことができる。
ステップ630において、ユーザ端末1000は、対象とターゲティング領域の中心点との間の距離に基づいて対象間の順序を決定することができる。例えば、対象とターゲティン領域の中心点との間の距離が近いほど、優先順位が高いように順序を決定することができる。
図7は、ターゲティン領域に位置する対象のタイプが同一である場合に対象間の順序を決定する一例を示す図である。
図7を参照すると、ターゲティング領域700に位置される対象はすべて、カカシオークという同一タイプのNPCに該当する。したがって、ユーザ端末1000は、ターゲティング領域700に位置する対象のそれぞれに対して、ターゲティング領域700の中心点710との距離を比較することができる。ターゲティン領域700に含まれる対象を含むリスト720を参照すると、中心点710との距離が近い対象が高い優先順位を有するように順序を決定することができる。
再び図6に戻り、ステップ640において、ユーザ端末1000は、対象のタイプに対してユーザが既設定した優先順位情報を受信することができる。例えば、対象は、同盟血盟員、敵対血盟員、モンスター、NPC(Non-Player Character)など様々なタイプに該当することができる。
図8は、ユーザが対象のタイプに対して優先順位を設定する一例を示す図である。
図8を参照すると、ユーザは、ターゲティング領域内の対象の優先順位を設定する画面800において、対象のタイプのそれぞれに対する優先順位を設定することができる。一方、図8は、対象のタイプのそれぞれに対してユーザが優先順位を設定する一例に過ぎず、これに限定されるものではない。
例えば、優先順位を設定できる対象のタイプは、敵対血盟員、同盟血盟員、ボスモンスター(特殊モンスター)及びクエスト対象モンスターを含んでもよい。ユーザは敵対血盟員、ボスモンスター(特殊モンスター)、クエスト対象モンスター及び同盟血盟員の順に優先順位を設定し、確認ボタンを押すことができる。この場合、ユーザが既設定した優先順位情報に基づいて、ターゲティング領域内の対象の順序を決定することができる。
再び図6に戻り、ステップ650で、ユーザ端末1000は、優先順位情報に基づいて対象間の順序を決定することができる。
また、ステップ660において、ユーザ端末1000は、ターゲティング領域内に同一タイプに該当する対象が位置するか否かを判断することができる。ターゲティング領域内に同一タイプに該当する対象が位置しないと判断された場合、ステップ650で対象間の順序がすべて決定されたので、順序を決定するプロセスを終了することができる。ターゲティング領域内に同一タイプに該当する対象が位置すると判断された場合、ステップ670に進むことができる。
ステップ650において、ユーザ端末1000は、同一タイプに属する対象のそれぞれに対して、対象とターゲティング領域の中心点との間の距離に基づいて対象間の順序を決定することができる。
図9は、ターゲティング領域に位置する対象のタイプが同一でない場合に対象間の順序を決定する一例を示す図である。
図9を参照すると、ターゲティング領域900に位置する対象は、敵対血盟員であるキャラクターBB、キャラクターCC、及びカカシオークというNPCに該当することができる。上述した図8のように、ユーザが敵対血盟員、ボスモンスター(特殊モンスター)、クエスト対象モンスター及び同盟血盟員の順に優先順位を設定した場合、敵対血盟員であるキャラクターBB及びキャラクターCCはカカシオークというNPCより高い優先順位を有することができる。
このとき、同一タイプに属するキャラクターBBとキャラクターCCのそれぞれに対して、対象とターゲティング領域900の中心点910との間の距離を比較することができる。キャラクターCCがキャラクターBBよりも中心点910に近いので、キャラクターCCがキャラクターBBより高い優先順位を有することができる。また、同一タイプに属するカカシオークというNPCのそれぞれに対しても対象と中心点910との間の距離を比較することができる。最終的に、ターゲティング領域900に位置する対象の順序は、リスト920に記載されているように決定することができる。
図10は、ユーザの追加入力により対象の順序を変更する一例を示す図である。
図10に示す画面1000は、図5Bの画面500と同じであってもよい。
図10の表示されたリスト1010を参照すると、ターゲティング領域に含まれる対象は、ユーザが既設定した優先順位情報及び対象と中心点との距離に基づいて、キャラクターCC、キャラクターBB、及びカカシオークの順序で決定されることができる。
このとき、ユーザはユーザインタフェース部を介してキャラクターBBを別途に選択することができる。ユーザがキャラクターBBを別途に選択する方法は、ユーザがマウスを用いて第2キャラクターの形状をクリックすることが例であるが、これに限定されない。ユーザがキャラクターBBを別途に選択する場合には、キャラクターBBを最優先順位にして対象間の順序を変更することができる。これにより、最終的に図10の画面1000に表示されるリスト1010は、キャラクターBB、キャラクターCC、及びカカシオークの順序で決定されたリスト1020に変更されることができる。
図11は、ユーザ端末のブロック図の一例を示すフローチャートである。
図11のユーザ端末1100は、図1のユーザ端末1000と同じであってもよい。
図11を参照すると、ユーザ端末1100は、通信部1110、プロセッサ1120、及びDB1130を含むことができる。図11のユーザ端末1100には、実施形態に関連する構成要素のみが示されている。したがって、図11に示される構成要素に加えて他の汎用的な構成要素がさらに含まれる可能性があることを、当該技術分野の通常の技術者であれば理解することができる。
通信部1110は、他のノードとの有線/無線通信を可能にする1つ以上の構成要素を含むことができる。例えば、通信部1110は、近距離通信部(図示せず)、移動通信部(図示せず)、及び放送受信部(図示せず)のうち少なくとも一つを含んでもよい。例えば、通信部1110は、ゲームサーバ2000にゲームの進行に必要な情報などを含むデータを送信することができ、ゲームサーバ2000で前記データを処理した結果を送信してもらうことができる。
DB1130は、ユーザ端末1100内で処理される各種のデータを保存するハードウェアであり、プロセッサ1120の処理及び制御のためのプログラムを保存することができる。DB1130は、決済情報、ユーザ情報などを保存することができる。
DB1130は、 DRAM (ダイナミックランダムアクセスメモリ、dynamic random access memory)、SRAM(スタティックRAM、static random access memory)などのような RAM(ランダムアクセスメモリ、random access memory)、ROM(リードオンリーメモリ、read-only memory)、EEPROM(electrically erasable programmable read-only memory)、CD-ROM、ブルーレイ、又は他の光ディスクストレージ、 HDD(ハードディスクドライブ、hard disk drive)、 SSD(ソリッドステートドライブ、solid state drive)、又はフラッシュメモリを含むことができる。
プロセッサ1120は、ユーザ端末1100の全般的な動作を制御する。例えば、プロセッサ1120は、DB1130に保存されたプログラムを実行することにより、入力部(図示せず)、ディスプレイ(図示せず)、通信部1110、DB1130などを全般的に制御することができる。例えば、プロセッサ1120は、通信部1110がゲームサーバ2000から送信されたデータ処理結果をディスプレイに表示するように制御することができる。
プロセッサ1120は、DB1130に保存されたプログラムを実行することにより、ユーザ端末1100の動作を制御することができる。プロセッサ1120は、図1~図10で上述したユーザ端末1100の動作の少なくとも一部を制御することができる。
プロセッサ1120は、ASIC(特定用途向け集積回路、application specific integrated circuit)、DSP(デジタル信号処理:digital signal processor)、DSPD(デジタル信号処理装置:digital signal processing device)、PLD(プログラマブルロジックデバイス:programmable logic device)、FPGA(フィールドプログラマブルゲートアレイ:field programmable gate array)、コントローラ(controller)、マイクロコントローラ(micro-controller)、マイクロプロセッサ(microprocessor)、他の機能を行うための電気的なユニットのうち、少なくとも1つを用いて実装することができる。
本発明による実施形態は、コンピュータ上における様々な構成要素を介して実行可能なコンピュータプログラムの形態で実装することができ、そのようなコンピュータプログラムはコンピュータ読み取り可能な媒体に記録することができる。このとき、媒体は、ハードディスク、フロッピーディスク、磁気テープなどの磁気媒体、CD-ROMやDVDなどの光記録媒体、フロプティカルディスク(floptical disk)などの光磁気記録媒体(magneto-optical medium)、及びROM、RAM、フラッシュメモリなどのようなプログラム命令語を保存し、実行するように特別に構成されたハードウェア装置を含むことができる。
一方、前記コンピュータプログラムは、本発明のために特別に設計及び構成されているか、又はコンピュータソフトウェアの分野の当業者に公知され利用可能なものであり得る。コンピュータプログラムの例には、コンパイラによって作られるような機械語コードだけでなく、インタプリタなどを使用してコンピュータによって実行可能な高級言語コードも含まれることができる。
一実施形態によれば、本開示の様々な実施形態による方法は、コンピュータプログラム製品(computer program product)に含まれて提供することができる。コンピュータプログラム製品は、商品として販売者と購入者との間で取引することができる。コンピュータプログラム製品は、機器で読み取り可能な保存媒体(例えば、CD-ROM、compact disk read-only memory)の形態で配布されるか、又はアプリケーションストア(例えば、プレイストアTM)を介して、又は2つのユーザ装置の間で直接、オンラインで配布(例えば、ダウンロード又はアップロード)することができる。オンライン配布の場合、コンピュータプログラム製品の少なくとも一部は、メーカーのサーバ、アプリケーションストアのサーバ、又は中継サーバのメモリなどの機器で読み取り可能な保存媒体に少なくとも一時的に保存されるか、一時的に生成することができる。

Claims (15)

  1. ゲームの対象をターゲティング(targeting)する方法において、
    ユーザの第1入力に基づいて第1ターゲティング領域の中心点を設定する動作と、
    前記中心点を基準にしてユーザ端末の画面に閉曲線で囲まれた第1ターゲティング領域を表示する動作と、
    前記第1ターゲティング領域内に位置する少なくとも1つの対象を含むリストを前記画面に表示する動作、及び
    前記第1入力の後に受信された前記ユーザの第2入力に基づいて前記第1ターゲティング領域を移動させる動作と、
    を含む、方法。
  2. 前記第1入力は、既設定された時間以上、画面の第1位置をタッチするロングプレス入力に該当し、前記第1ターゲティング領域は、前記第1位置を中心点として第1距離だけ離れた円形の閉曲線で囲まれた領域に該当する、請求項1に記載の方法。
  3. 前記第1ターゲティング領域を平行移動させた第2ターゲティング領域を前記画面に表示する動作をさらに含み、
    前記第2入力は、前記画面でタッチ位置を前期第1位置とは異なる第2位置にドラッグする入力に該当し、
    前記第2ターゲティング領域は、前記第2位置を中心点として前記第1距離だけ離れた円形の閉曲線で囲まれた領域に該当する、請求項2に記載の方法。
  4. 前記第2入力が終了する場合、前記第2ターゲティング領域に含まれる少なくとも1つの対象に対する攻撃を自動的に行う動作をさらに含み、
    前記第2入力は、前記ドラッグする入力のうち、前記画面に対するタッチを解除(release)する場合に終了する、請求項3に記載の方法。
  5. 前記リストを前記画面に表示する動作は、
    前記第1ターゲティング領域に2つ以上の対象が位置する場合、
    前記対象のタイプに対して、前記ユーザが既設定した優先順位情報を受信するステップと、
    前記優先順位情報に基づいて前記対象間の順序を決定するステップ、及び
    前記決定された順序に基づいて前記リストを表示するステップと、を含む、請求項1に記載の方法。
  6. 前記順序を決定するステップは、
    前記第1ターゲティング領域に同一タイプに該当する対象が位置する場合、
    前記同一タイプに属する対象のそれぞれに対して、対象と前記中心点との間の距離に基づいて前記順序を決定する、 請求項5に記載の方法。
  7. 前記第1ターゲティング領域内に位置する少なくとも1つの対象を前記第1ターゲティング領域に位置しない対象と区別されるように色を変更して表示する動作、及び
    前記少なくとも1つの対象の中で最も高い優先順位を有する第1対象に隣接する位置に、前記第1対象の形状と区別される形を表示する動作とをさらに含む、請求項1に記載の方法。
  8. ゲームを実行する装置において、
    少なくとも1つのプログラムが保存されているメモリ、及び
    前記少なくとも1つのプログラムを実行することによって演算を行うプロセッサを含み、
    前記プロセッサは、ユーザの第1入力に基づいて第1ターゲティング領域の中心点を設定し、前記中心点を基準にしてユーザ端末の画面に閉曲線で囲まれた第1ターゲティング領域を表示し、前記第1ターゲティング領域内に位置する少なくとも1つの対象を含むリストを前記画面に表示し、前記第1入力の後に受信される前記ユーザの第2入力に基づいて前記第1ターゲティング領域を移動させる、装置。
  9. 前記第1入力は、既設定された時間以上、画面の第1位置をタッチするロングプレス入力に該当し、
    前記第1ターゲティング領域は、前記第1位置を中心点として、第1距離だけ離れた円形の閉曲線で囲まれた領域に該当する、請求項8に記載の装置。
  10. 上記プロセッサは、
    前記第1ターゲティング領域を平行移動させた第2ターゲティング領域を前記画面に表示し、
    前記第2入力は、前記画面でタッチ位置を前記第1位置とは異なる第2位置にドラッグする入力に該当し、
    前記第2ターゲティング領域は、前記第2位置を中心点として前記第1距離だけ離れた円形の閉曲線で囲まれた領域に該当する、請求項9に記載の装置。
  11. 前記プロセッサは、
    前記第2入力が終了する場合、前記第2ターゲティング領域に含まれる少なくとも1つの対象に対する攻撃を自動的に行い、
    前記第2入力は、前記ドラッグする入力のうち、前記画面に対するタッチを解除(release)する場合に終了する、請求項10に記載の装置。
  12. 前記プロセッサは、
    前記第1ターゲティング領域に2つ以上の対象が位置する場合、
    前記対象のタイプに対して、前記ユーザが既設定した優先順位情報を受信し、前記優先順位情報に基づいて前記対象間の順序を決定し、前記決定された順序に基づいて前期リストを表示する、請求項8に記載の装置。
  13. 前記プロセッサは、
    前記第1ターゲティング領域に同一タイプに該当する対象が位置する場合、
    前記同一タイプに属する対象のそれぞれに対して、対象と前記中心点との間の距離に基づいて前記順序を決定する、請求項12に記載の装置。
  14. 前記プロセッサは、
    前記第1ターゲティング領域内に位置する少なくとも1つの対象を 前記第1ターゲティング領域に位置しない対象と区別されるように色を変更して表示し、前記少なくとも1つの対象の中で最も高い優先順位を有する第1対象に隣接する位置に、前記第1対象の形状と区別される形を表示する、請求項8に記載の装置。
  15. 請求項1に記載の方法をコンピュータで実行するためのプログラムを記録したコンピュータで読み取り可能な記録媒体。
JP2022078697A 2021-05-28 2022-05-12 ゲームの対象をターゲティングする方法及び装置{method and apparatus for targeting objects of a game} Active JP7373607B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2021-0068861 2021-05-28
KR1020210068861A KR102666778B1 (ko) 2021-05-28 게임의 대상체를 타겟팅하는 방법 및 장치

Publications (2)

Publication Number Publication Date
JP2022183035A true JP2022183035A (ja) 2022-12-08
JP7373607B2 JP7373607B2 (ja) 2023-11-02

Family

ID=81748700

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022078697A Active JP7373607B2 (ja) 2021-05-28 2022-05-12 ゲームの対象をターゲティングする方法及び装置{method and apparatus for targeting objects of a game}

Country Status (5)

Country Link
US (1) US20220379213A1 (ja)
EP (1) EP4098337A1 (ja)
JP (1) JP7373607B2 (ja)
CN (1) CN115400419A (ja)
TW (1) TW202245894A (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019136358A (ja) * 2018-02-13 2019-08-22 株式会社バンダイナムコオンライン ゲームシステム及びプログラム
WO2020096080A1 (ko) * 2018-11-07 2020-05-14 주식회사 넥슨코리아 인터랙션 그래픽 유저 인터페이스를 디스플레이하기 위한 방법, 장치, 및 컴퓨터 프로그램
JP6869412B1 (ja) * 2020-10-01 2021-05-12 エヌエイチエヌ コーポレーション ゲーム制御方法、プログラム、サーバ及び通信装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101467766B1 (ko) * 2008-03-21 2014-12-10 엘지전자 주식회사 이동 단말기 및 이동 단말기의 화면 표시 방법
KR101417947B1 (ko) * 2012-12-21 2014-09-24 주식회사 위메이드엔터테인먼트 온라인 게임에서의 유저 제스처 입력 처리 방법
KR102495259B1 (ko) * 2018-04-09 2023-02-02 주식회사 엔씨소프트 온라인 게임에서 대상체를 정밀하게 타겟팅하는 방법 및 장치
CN111672119B (zh) * 2020-06-05 2023-03-10 腾讯科技(深圳)有限公司 瞄准虚拟对象的方法、装置、设备及介质

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019136358A (ja) * 2018-02-13 2019-08-22 株式会社バンダイナムコオンライン ゲームシステム及びプログラム
WO2020096080A1 (ko) * 2018-11-07 2020-05-14 주식회사 넥슨코리아 인터랙션 그래픽 유저 인터페이스를 디스플레이하기 위한 방법, 장치, 및 컴퓨터 프로그램
JP6869412B1 (ja) * 2020-10-01 2021-05-12 エヌエイチエヌ コーポレーション ゲーム制御方法、プログラム、サーバ及び通信装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"Simple FPS Aim Trainer", 世界のウェブアーカイブ|国立国会図書館インターネット資料収集保存事業、STEAM[ONLINE], JPN6023022425, 18 March 2021 (2021-03-18), ISSN: 0005077870 *
ニクマン: "機動戦士ガンダム ガンダムVS.ガンダム", 月刊アルカディア, vol. 第9巻 第7号, JPN6022011619, 1 July 2008 (2008-07-01), pages 38, ISSN: 0005077869 *

Also Published As

Publication number Publication date
EP4098337A1 (en) 2022-12-07
CN115400419A (zh) 2022-11-29
KR20220160790A (ko) 2022-12-06
JP7373607B2 (ja) 2023-11-02
US20220379213A1 (en) 2022-12-01
TW202245894A (zh) 2022-12-01

Similar Documents

Publication Publication Date Title
JP6190939B2 (ja) ゲーム・システム用グラフィカル・ユーザ・インターフェース
JP6227759B2 (ja) コンピュータゲームに登場する対象体を自動的にターゲッティングする方法及びその装置
US20150157932A1 (en) Method of processing user gesture inputs in online game
KR102559288B1 (ko) 고정된 오프셋 타겟팅 위치를 선택하는 기법
JPWO2019211950A1 (ja) 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
JP2024500929A (ja) 仮想シーンに表情を表示する方法と装置及びコンピュータ機器とプログラム
KR101404635B1 (ko) 온라인 게임에서의 드래그 입력 처리 방법
JP7343355B2 (ja) ゲーム制御方法および装置
KR102650890B1 (ko) 게임 내 아이템 강화 서비스 제공 방법
JP7373607B2 (ja) ゲームの対象をターゲティングする方法及び装置{method and apparatus for targeting objects of a game}
KR102495259B1 (ko) 온라인 게임에서 대상체를 정밀하게 타겟팅하는 방법 및 장치
KR102666778B1 (ko) 게임의 대상체를 타겟팅하는 방법 및 장치
KR20240072113A (ko) 게임의 대상체를 타겟팅하는 방법 및 장치
JP7482847B2 (ja) プログラム、端末、及びゲームシステム
US11911699B2 (en) Processing device having spectating and match information storage and transmission
JP7170454B2 (ja) システム、端末装置及びサーバ
KR101492248B1 (ko) 온라인 게임에 출현하는 객체를 타겟팅하는 방법 및 장치.
KR102463571B1 (ko) 게임 제어 장치 및 방법
KR102170825B1 (ko) 게임 제어 장치 및 방법
JP2022111439A (ja) ゲーム装置、ゲーム処理方法およびプログラム
JP2024059230A (ja) プログラム、情報処理方法および情報処理装置
KR20230153101A (ko) 그래픽 유저 인터페이스를 디스플레이하기 위한 방법 및 게임 제공 장치
KR20190118273A (ko) 게임 내 예약 기능 제공 장치 및 방법
KR20230039278A (ko) 캐릭터 제공 장치 및 캐릭터 제공 방법
CN117531195A (zh) 游戏中的控制方法、装置、电子设备及可读存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220512

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230905

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230926

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231023

R150 Certificate of patent or registration of utility model

Ref document number: 7373607

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150