JP2023087130A - 情報処理装置、情報処理方法、およびプログラム - Google Patents

情報処理装置、情報処理方法、およびプログラム Download PDF

Info

Publication number
JP2023087130A
JP2023087130A JP2020086775A JP2020086775A JP2023087130A JP 2023087130 A JP2023087130 A JP 2023087130A JP 2020086775 A JP2020086775 A JP 2020086775A JP 2020086775 A JP2020086775 A JP 2020086775A JP 2023087130 A JP2023087130 A JP 2023087130A
Authority
JP
Japan
Prior art keywords
operation mode
posture
information processing
determination unit
determined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020086775A
Other languages
English (en)
Inventor
佑樹 田中
Yuki Tanaka
康隆 福本
Yasutaka Fukumoto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Group Corp
Original Assignee
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Group Corp filed Critical Sony Group Corp
Priority to JP2020086775A priority Critical patent/JP2023087130A/ja
Priority to US17/922,764 priority patent/US11954244B2/en
Priority to PCT/JP2021/017398 priority patent/WO2021235232A1/ja
Publication of JP2023087130A publication Critical patent/JP2023087130A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics

Abstract

【課題】本開示は、仮想空間において操作されるオブジェクトが何らかの干渉を受ける場面において、ユーザの没入感をなるべく低下させずに、オブジェクトとユーザの各体勢の乖離を解消するための処理を行う装置などを提供する。【解決手段】本開示の一側面の情報処理装置は、操作モード決定部と、指示体勢算出部と、オブジェクト動作決定部と、を備える。操作モード決定部は第1オブジェクトに対する操作モードを決定する。指示体勢算出部は、第1オブジェクトの操作者の体勢に基づき、第1オブジェクトに対する指示体勢を算出する。オブジェクト動作決定部は、操作モードが第1操作モードと決定された場合は指示体勢に基づき、操作モードが第2操作モードと決定された場合は指示体勢に基づかずに、第1オブジェクトの体勢を決定する。また、操作モード決定部は、指示体勢が所定条件を満たしたと判定したときに、操作モードを第1操作モードに切り替える。【選択図】図1

Description

本開示は、情報処理装置、情報処理方法、およびプログラムに関する。
モーションキャプチャなどの技術を用いることによってユーザの体勢を認識し、当該体勢およびその変化を操作信号とみなして、仮想空間内のオブジェクト、例えばゲーム内のキャラクターなどを動かす装置が存在する。当該装置を用いることによりキャラクターの動作をユーザの動作に追従させることができ、ゲームに対するユーザの没入感が向上される。
このような従来技術では、オブジェクトを制限なく自由に動かせる場合は問題ないが、オブジェクトが何らかの干渉を受けるはずの場面などにおいて不都合が生じる。例えば、仮想空間内に複数のオブジェクトが存在する場合に、従来技術では、これらのオブジェクト同士が衝突せずにすり抜けるように処理することが多々ある。これでは、ユーザが現実世界との違いを認識してしまい、ユーザの没入感を損なわせることになる。ゆえに、これらのオブジェクト同士が衝突してオブジェクトが転倒するなどといった自然な動作が行われるようにする必要がある。
特許第4848515号公報
しかし、オブジェクトを転倒させた場合にも問題が生じる。例えば、オブジェクトを転倒させた場合、オブジェクトの体勢と、ユーザの体勢と、に乖離が生じるため、自分の体のように動かしていたときと比べて、没入感が低下する。また、当該乖離を解消するため、オブジェクトが転倒から起き上がってすぐにユーザの体勢に合わせるように処理すると、オブジェクトの動作が不自然になる。これも、ユーザの没入感を損なわせる一因となる。
上記の問題を受けて、本開示は、仮想空間において操作されるオブジェクトが何らかの干渉を受ける場面において、ユーザの没入感をなるべく低下させずに、オブジェクトとユーザの各体勢の乖離を解消するための処理を行う装置などを提供する。
本開示の一側面の情報処理装置は、操作モード決定部と、指示体勢算出部と、オブジェクト動作決定部と、を備える。操作モード決定部は第1オブジェクトに対する操作モードを決定する。指示体勢算出部は、第1オブジェクトの操作者の体勢に基づき、第1オブジェクトに対する指示体勢を算出する。オブジェクト動作決定部は、操作モードが第1操作モードと決定された場合は指示体勢に基づき、操作モードが第2操作モードと決定された場合は指示体勢に基づかずに、第1オブジェクトの体勢を決定する。また、操作モード決定部は、指示体勢が所定条件を満たしたと判定したときに、操作モードを第1操作モードに切り替える。
これにより、オブジェクトを再び操作可能にするために、操作者が体勢を自発的に変えるといったゲーム性が生じ、没入感の低下を防ぐことができる。また、オブジェクトとユーザの体勢の乖離も解消することができる。
また、前記操作モード決定部は、前記操作モードが前記第2操作モードの場合に、前記指示体勢が前記第1オブジェクトの体勢と一致したと判定したときに、前記操作モードを前記第1操作モードに切り替えてもよい。
また、前記オブジェクト動作決定部は、前記操作モードが前記第2操作モードと決定された場合に、前記第1オブジェクトに所定のポーズを取らせ、前記操作モード決定部は、前記指示体勢が前記ポーズと一致したと判定したときに、前記操作モードを前記第1操作モードに切り替えてもよい。
また、前記操作モード決定部は、前記操作者のポジションまたは移動距離が所定条件を満たし、かつ、前記指示体勢が所定条件を満たした、と判定したときに、前記操作モードを前記第1操作モードに切り替えてもよい。
また、前記操作モードが前記第2操作モードに切り替わった際に、前記操作者の移動に応じて前記仮想空間内を移動する第2オブジェクトを生成するオブジェクト生成部をさらに備え、前記操作モード決定部は、前記第2オブジェクトのポジションが前記第1オブジェクトのポジションと一致し、かつ、前記指示体勢が所定条件を満たした、と判定したときに、前記操作モードを前記第1操作モードに切り替える、といった構成も取りうる。
また、前記オブジェクト動作決定部は、前記操作モードが前記第1操作モードと決定された場合に、前記第1オブジェクトの体勢を前記指示体勢に応じたものとしてもよい。
また、前記操作モード決定部は、前記仮想空間において所定のイベントが発生した場合に、前記操作モードを前記第1操作モードから前記第2操作モードに切り替えてもよい。
また、前記操作モード決定部は、前記第1オブジェクトと、前記仮想空間内に存在する第3オブジェクトと、の位置関係に基づき、前記イベントの発生を判定してもよい。
また、前記操作モードが切り替わった際に、前記第1オブジェクトの外観を変化させてもよい。
また、前記オブジェクト動作決定部は、前記操作モードが前記第2操作モードと決定された場合に、前記第1オブジェクトに複数のポーズを順番に取らせ、前記操作モード決定部は、前記指示体勢が、前記複数のポーズと、前記第1オブジェクトが取った順番通りに一致したと判定したときに、前記操作モードを前記第1操作モードに切り替えてもよい。
また、前記操作モード決定部は、所定の物体からの信号が受信され、かつ、前記指示体勢が所定条件を満たしたと判定したときに、前記操作モードを前記第1操作モードに切り替えてもよい。
また、前記仮想空間の少なくとも一部の領域を表す画像を生成する画像生成部をさらに備え、前記オブジェクト動作決定部は、前記操作モードが前記第1操作モードから前記第2操作モードに切り替わった際に、前記領域内に前記第1オブジェクトを移動させる、といった構成も取りうる。
また、前記操作モードが前記第2操作モードに切り替わった後に、第4オブジェクトを生成するオブジェクト生成部をさらに備え、前記オブジェクト動作決定部は、前記第4オブジェクトのポジションを、前記領域内の前記第1オブジェクトの過去のポジションに合わせてもよい。
また、前記操作モードが前記第2操作モードに切り替わった後に、前記領域内での前記第1オブジェクトの移動の軌跡を示す第5オブジェクトを生成するオブジェクト生成部をさらに備えていてもよい。
また、本開示の他の一態様では、仮想空間において操作される第1オブジェクトに対する操作モードを決定するステップと、前記第1オブジェクトの操作者の体勢に基づき、前記第1オブジェクトに対する指示体勢を算出するステップと、前記操作モードが第1操作モードと決定された場合は前記指示体勢に基づき、前記操作モードが第2操作モードと決定された場合は前記指示体勢に基づかずに、前記第1オブジェクトの体勢を決定するステップと、を備え、前記操作モードが前記第2操作モードの場合に、前記指示体勢が所定条件を満たしたと判定したときに、前記操作モードが前記第1操作モードに切り替えられるという情報処理方法が提供される。
また、本開示の他の一態様では、仮想空間において操作される第1オブジェクトに対する操作モードを決定するステップと、前記第1オブジェクトの操作者の体勢に基づき、前記第1オブジェクトに対する指示体勢を算出するステップと、前記操作モードが第1操作モードと決定された場合は前記指示体勢に基づき、前記操作モードが第2操作モードと決定された場合は前記指示体勢に基づかずに、前記第1オブジェクトの体勢を決定するステップと、を備え、前記操作モードが前記第2操作モードの場合に、前記指示体勢が所定条件を満たしたと判定したときに、前記操作モードが前記第1操作モードに切り替えられる、というプログラムが提供される。
本発明の一実施形態に係る情報処理装置の構成例を示す図。 操作オブジェクトの操作を説明する図。 ユーザの体勢を認識する手段の例を示す図。 情報処理装置の利用例を示した図。 非同期時における操作オブジェクトの動作について説明する図。 ユーザのポジションを用いた再操作の方法の例を示す図。 ユーザ視点の画像について説明する図。 情報処理装置の全体処理のフローチャート。 仮想空間処理部の同期モードにおける処理のフローチャート。 仮想空間処理部の非同期モードにおける処理のフローチャート。
以下、図面を参照して、本開示の実施形態について説明する。
(本発明の一実施形態)
図1は、本発明の一実施形態に係る情報処理装置の構成例を示す図である。図1の例の情報処理装置1は、受信部11と、信号解析部12と、仮想空間処理部13と、画像生成部14と、送信部15と、を備える。仮想空間処理部13は、仮想空間生成部(オブジェクト生成部)131と、指示体勢算出部132と、操作モード決定部133と、オブジェクト動作決定部134と、を備える。
本開示における情報処理装置1は、従来のゲーム装置と同様に、仮想空間と、当該仮想空間内に存在するオブジェクトと、を生成する。オブジェクトは一つ以上生成され、そのうちの少なくとも一つは、情報処理装置1のユーザによって操作されるものとする。以降、ユーザに操作されるオブジェクトを「操作オブジェクト(第1オブジェクト)」と記載する。また、ユーザに操作されないオブジェクトを「非操作オブジェクト(第3オブジェクト)」と記載する。情報処理装置1のユーザは、操作オブジェクトの操作者とも言える。
図2は、操作オブジェクトの操作を説明する図である。図2には、ユーザ2と、操作オブジェクト3と、が示されている。操作オブジェクト3は、仮想空間内に存在するため、仮想空間を表示する画像4内に示されている。
多くのゲーム装置では、ユーザは、コントローラ、タッチパネルなどの入力デバイスを介して、操作オブジェクトを動かすが、本開示では、ユーザは、自身の体勢を用いて、操作オブジェクトを動かす。言い換えれば、情報処理装置1は、ユーザの体勢に基づいて操作オブジェクトの体勢を決定する。本開示においては、操作オブジェクトの体勢が、ユーザの体勢に追従するようにする。つまり、操作オブジェクトの体勢と、ユーザの体勢と、が、同期する。例えば、図2に示すように、ユーザ2が手を振ると、操作オブジェクト3も手を振る。このような操作を行うために、情報処理装置1は、ユーザの体勢を認識することが可能な装置から情報を受信する。
図3は、ユーザの体勢を認識する手段の例を示す図である。図3では、ユーザ2の体に取り付けられたセンサ5によってユーザ2の体勢を認識する例が示されている。図3の例の技術は、モーションキャプチャシステムとして知られている。センサ5は、例えば、加速度センサ、角速度センサ、IMU(Inertial Measurement Unit)センサなど、公知のセンサなどでよい。
図3では、各センサ5の位置座標などを示すデータが、各センサ5から情報処理装置1Aおよび1Bに送信されている。情報処理装置1Aおよび1Bは、各センサ5間の同期を取った上で、各センサ5の位置座標に基づいてユーザ2の体勢を認識する。
なお、ユーザに取り付けられた各センサの位置座標は、当該ユーザの体の各部位の位置を示すが、情報処理装置1は、各センサの位置座標に基づいて、ユーザの立ち位置などといったユーザ全体における位置を決定してもよい。つまり、腕の位置座標、足の位置座標、頭の位置座標などから、ユーザ全体の位置座標を一つに定めてよい。本開示では、ユーザ全体の位置をユーザのポジションと記載する。
ユーザのポジションは、体のいずれの部分の位置としてもよい。特定のセンサの位置座標としてもよいし、各センサの位置座標の平均など、所定の計算式に基づいて算出されてもよい。また、情報処理装置1は、各計測時点におけるユーザのポジションに基づいて、各計測時点間におけるユーザの移動距離も算出してもよい。これにより、ユーザの移動距離に基づいて仮想空間内のオブジェクトを移動させるといった処理も可能となる。
なお、情報処理装置1は、様々な実施形態が想定され得る。例えば、図3に示すように、各センサ5からのデータを、有線または無線通信にて、スマートフォンなどといった携帯可能な情報処理装置1Aが受信し、操作オブジェクト3の体勢を決定した上で、ヘッドマウントディスプレイ6Aといった画像表示デバイスに操作オブジェクト3を表示させてもよい。あるいは、図3に示すように、各センサ5からのデータを、無線通信にて、クラウドサーバなどとった固定式の情報処理装置1Bが受信し、操作オブジェクト3の体勢を決定した上で、モニタ6B、プロジェクタ6Cなどの画像表示デバイスに表示させてもよい。
また、図3では、センサ5からのデータが、直接、情報処理装置1Aおよび1Bに送信されているが、体勢を認識する装置が情報処理装置1とは別に用意され、各センサは当該装置にデータを送信してもよい。
また、ユーザの体勢を認識する方法は、モーションキャプチャシステムに限られない。例えば、3Dカメラなどによってユーザを撮影し、撮影された画像から、スケルトンなど称されるユーザの体勢を示す情報を取得する公知技法が知られている。スケルトンのような体勢を示す情報を生成可能な装置が用いられてもよい。
情報処理装置1は、このようにして得られたユーザの体勢に基づいて操作オブジェクトの体勢を決定する。なお、情報処理装置1は、ユーザの体勢を仮想空間に対する指示と認識してもよく、ユーザの体勢に基づいて仮想空間において特殊なイベントを実行してもよい。例えば、ゲームの特殊なアイテムを使用するといったイベントを実行してもよい。
また、操作オブジェクトを動かすこと以外の指示は、ユーザの体勢に基づかなくてもよい。例えば、仮想空間内で特殊なアイテムを使用する、仮想空間を表示する画像の向きを変える、などといった指示は、キーボード、マウス、コントローラなどの入力デバイスを介して行われてもよい。
図4は、情報処理装置1の利用例を示した図である。図4では、仮想空間を格闘ゲームとして利用する例が示されている。図4では、仮想空間内を示す画像4内に、ユーザ2Aおよび2Bそれぞれによって操作される操作オブジェクト3Aおよび3Bが示されている。操作オブジェクト3Aおよび3Bの体勢はそれぞれ、ユーザ2Aおよび2Bの体勢と同期している。ユーザ2Aおよび2Bはそれぞれ、操作オブジェクト3Aおよび3Bの操作者とも言える。
図4に示すように、ユーザ2Aが特定の体勢または動作を行うと、これらを検知した情報処理装置1は、特定の処理を実行する。なお、特定の動作とは、ある特定の体勢から別の特定の体勢に推移したことを意味する。図4の例では、特定の体勢または動作を検知した情報処理装置1が非操作オブジェクト7を生成し、操作オブジェクト3Aから離れるように移動させている。そして、非操作オブジェクト7が操作オブジェクト3Bと接触したときに、情報処理装置1は、操作オブジェクト3Bを転倒させる。
操作オブジェクト3Bを転倒させるということは、ユーザ2Bと操作オブジェクト3Bの体勢が乖離する。そのため、ユーザ2Bと操作オブジェクト3Bとの一体感がなくなり、ユーザ2Bが操作オブジェクト3Bを自分の体のように動かしていたときと比べて、ユーザ2Bの仮想空間に対する没入感が低下する。また、当該乖離をなくすため、操作オブジェクト3Bが転倒から起き上がってすぐにユーザ2Bの体勢に合わせるように処理すると、操作オブジェクト3Bの動作が不自然になる。これも、ユーザ2Bの没入感を損なわせる一因となる。
そこで、本開示では、ユーザが自身の体勢を自発的に操作オブジェクトの体勢に合わせるように仕向ける。情報処理装置1は、衝突などの所定のイベントが発生した場合、ユーザの体勢とオブジェクトの体勢と、を非同期とする。そして、ユーザの体勢が操作オブジェクトの体勢と一致するまで、操作オブジェクトに対する指示を無視する。ユーザの体勢が操作オブジェクトの体勢が一致した場合、再び同期を行う。操作オブジェクトが操作できないままでは、ユーザはゲームに負けてしまう。そのため、ユーザは、操作オブジェクトを再操作可能にするために、自発的に体勢を操作オブジェクトの体勢に合わせることになる。なお、操作オブジェクトを動かすこと以外の指示は、受け付けてもよい。
このような処理を実現するために、情報処理装置1は、操作オブジェクトに対する操作に関する操作モードを管理し、操作モードが同期モード(第1操作モード)の場合に、ユーザと操作オブジェクトの体勢を同期させ、情報処理装置は、操作モードが非同期モード(第2操作モード)の場合に、操作オブジェクトの体勢をユーザの体勢に依存せずに決定する。操作モードは、オブジェクトの衝突などの特定のモード切替イベントが生じた場合に、切り替えられる。
図5は、非同期時における操作オブジェクトの動作について説明する図である。図4に示した操作オブジェクト3Bの体勢は、非操作オブジェクト7と操作オブジェクト3Bが衝突するまでは、ユーザ2Bの体勢に同期しており、衝突後は、非同期となる。そのため、図5では、衝突が、同期モードから非同期モードに切り替えるモード切替イベントとして示されている。衝突後の操作オブジェクト3Bは、非操作オブジェクト7に突き飛ばされたように動く。すなわち、衝突による力を受けた場合の操作オブジェクト3Bの物理的な軌道が演算され、当該軌道に沿って操作オブジェクト3Bが動き、最終的に転倒した状態となる。このように、衝突から転倒までの期間における操作オブジェクト3Bの動作は、物理演算で算出された軌道に追従しているため、「物理演算追従」と記載する。
図5の操作オブジェクト3Bは、転倒後に所定の動作を実行し、最終的に、特定の体勢(ポーズ)で停止している。このような、操作オブジェクトの非同期期間における停止時のポーズを同期待ちポーズと記載する。転倒から同期待ちポーズまでの期間における操作オブジェクト3Bの動作は、ユーザ2の操作にも物理演算にもよらないことから、「自動動作」と記載する。自動動作の内容は、特に限られるものではなく、適宜に定めてよい。
なお、同期待ちポーズは、複数あってもよく、いずれの同期待ちポーズが取られるかは、ランダムに決定されてもよいし、衝撃の大きさ、衝突したオブジェクト、仮想空間の設定などに基づいて決定されてもよい。
ユーザが同期待ちポーズを取ると、情報処理装置1は、ユーザの体勢と操作オブジェクトの体勢が一致したとして、再び両者の体勢を同期させる。図5では、ユーザ2Bが、操作オブジェクト3Bと同様のポーズを取っている。これにより、両者の再同期が行われる。
なお、より迅速に再操作を可能にしてもよい。例えば、同期待ちポーズが取られる前でも、ユーザが操作オブジェクトと同じ体勢を取った時点で再操作可能としてもよい。例えば、図5の例において、操作オブジェクト3Bが転倒して寝そべっているとき、ユーザ2Bも寝そべることで、再操作を可能としてもよい。このようにすると、ユーザは早く再操作可能にしたいという欲求が呼び起され、ゲームへの没入感が増すことになる。
なお、非同期期間においては、操作を受け付けないことをユーザに認識させるために、操作オブジェクトの外観を変化させてもよい。例えば、操作オブジェクトの色彩を変えてもよい。操作オブジェクトの透過率を増加させて操作オブジェクトの後ろ側にある背景が見えるようにしてもよい。操作オブジェクトが保持する武器、装備などが外れるといった演出が行われてもよい。操作オブジェクトのサイズを増減させてもよい。操作オブジェクトを全く別のオブジェクトに入れ替えてもよい。
例えば、従前より、主人公が変身して全く別のキャラクターになるといったストーリーは多々ある。このようなストーリーを仮想空間でゲーム化し、同期モードにおいては操作オブジェクトを変身後のキャラクターとし、非同期モードにおいては操作オブジェクトを変身前のキャラクターにしてもよい。あるいは、パイロットがロボットなどの乗り物に乗って競争したり、戦ったりするというストーリーをなぞって、同期モードにおいては操作オブジェクトを当該乗り物とし、非同期モードにおいては操作オブジェクトをパイロットにしてもよい。すなわち、非同期期間においては、同期モードにおいて操作されていた操作オブジェクトが表示されず、別のオブジェクトが同期待ちポーズを取ってもよい。
なお、上記では、操作オブジェクトが停止して同期待ちポーズを取るとしたが、同期待ちポーズが停止した状態に限られるわけではない。例えば、同期待ちポーズが周期的な動作であってもよい。例えば、操作オブジェクトが足踏みしており、ユーザも足踏みすることによって同期モードに切戻すといったことが行われてもよい。あるいは、操作オブジェクトがフィギュアスケートのスピンのように回転しており、ユーザも回転することによって同期モードに切戻すといったことが行われてもよい。
また、上記では、ユーザが同期待ちポーズと同じポーズを取った場合に同期モードに切戻すとしたが、その場合に、操作オブジェクトがさらに別の同期待ちポーズを取ってもよい。すなわち、ユーザの体勢が1番目の同期待ちポーズに合わせられると、操作オブジェクトが2番目の同期待ちポーズを取り、ユーザは体勢を2番目の同期待ちポーズに合わせる必要が生じるとしてもよい。このように、同期モードに切戻すためには、操作オブジェクトが順番に実行した複数の同期待ちポーズを、ユーザが順番通りに実行する必要があるとしてもよい。また、複数の同期待ちポーズを所定時間の経過で変化させ、当該所定時間内にユーザは体勢を各同期待ちポーズに合わせないと、同期モードの切戻しに失敗するとしてもよい。すなわち、操作オブジェクトが特定の動作を実行し、ユーザが当該特定の動作に追従した場合に、再操作を可能にしてもよい。
なお、非同期モードから同期モードへの切り替えには、同期待ちポーズだけでなく、別の条件も要求してもよい。例えば、特定の機器からの信号も受け付けないと、非同期モードから同期モードへの切り替えが行われないとしてもよい。例えば、ユーザに対して、同期待ちポーズとともに、特定機器のボタンを押すことを要求してもよい。例えば、操作オブジェクトが剣を装備し、当該剣を振ることによって敵を倒すといったゲームが多々ある。このようなゲームにおいて、ユーザが剣に見立てたコントローラを振ることによって、剣を振るという指示を出すことが可能なゲーム装置が存在する。情報処理装置1がこのようなゲーム装置を用いて実現される場合、ユーザの体勢だけでなく、ユーザがコントローラを保持していることも、同期モードへの切替条件としてもよい。このように、同期待ちポーズを取るとともに、特定機器のボタンを押すなどによって発せられる特定機器からの信号を、モード切替の条件に加えてよい。
また、ユーザのポジションを同期モードへの切替条件に加えてもよい。図6は、ユーザのポジションを用いた再同期の方法の例を示す図である。図6では、操作オブジェクト3Bは、転倒から立ち上がった後に、停止地点9Aに移動してからポーズを取っている。ユーザ2Bも、再同期を行うために、その場から移動してからポーズを取らなくては再操作可能とはならないとする。このようにすることで、「移動」という要素もゲームに取り込むことができる。
なお、ユーザ2Bに対し、現実の所定の地点9Bに移動するように要求してもよい。あるいは、移動先を指定せず、移動距離が指定値以上となるように要求してもよい。あるいは、仮想空間上の特定の地点に移動するように要求してもよい。その際、ユーザの再操作を支援するオブジェクトであるサポートオブジェクト(第2オブジェクト)を生成してもよい。例えば、情報処理装置1が操作モードを非同期モードに切り替えた際に、図6の点線で示されたようなサポートオブジェクト8を生成する。図6のサポートオブジェクト8は、ユーザ2Bの移動に応じて移動する。サポートオブジェクト8と操作オブジェクト3Bとのポジションを一致させてから同期待ちポーズを取らせることにより、操作オブジェクト3Bの再操作を可能にするとしてもよい。なお、サポートオブジェクト8の移動距離は、ユーザ2Bの移動距離と同じでなくてよい。なお、情報処理装置1は、操作オブジェクト3の再操作が可能になった時点で、サポートオブジェクト8を削除する。
なお、図6の操作オブジェクト3Bとサポートオブジェクト8の外観は類似しているが、前述の非同期モードに操作オブジェクトの外観と同様、ユーザがサポートオブジェクトを認識することができれば、サポートオブジェクトと操作オブジェクトとの外観は全く別にしてもよい。例えば、巨大ロボットに関するゲームの場合、操作オブジェクトが巨大ロボットの外観であり、サポートオブジェクトが当該巨大ロボットに乗り込むパイロットの外観とすることもできる。
また、図4から6では、操作オブジェクトが画像に表示されている場合を想定した。しかし、図3のヘッドマウントディスプレイ6Aなどを用いたVR(Virtual Reality)では、ユーザ視点での画像を表示することも多々ある。ユーザ視点での画像で上記のような同期モードの切り替えを起こった場合、同期モードでは操作オブジェクトが画像に表示されていないが、非同期モードに切り替えられた際に、操作オブジェクトが画像に表示されることになる。
図7は、ユーザ視点の画像について説明する図である。図7の左側には、図4で示した仮想空間を、操作オブジェクト3Bの視点で表した画像4Aが示されている。図7の右上側には、非操作オブジェクト7と衝突したために、操作オブジェクト3Bがユーザ2のポジションから離れてしまったことを示す画像4Bが示されている。前述のロボットの例えで言えば、ユーザ2Bはロボットである操作オブジェクト3Bに乗り込んで操作していたが、非操作オブジェクト7と衝突したために、操作オブジェクト3Bがユーザ2Bから切り離されて視認可能となったという状態である。図4Bのような画面では、自身の場所が正確に把握することができず、操作オブジェクト3Bのポジションまで移動して体勢を合わせることが困難である。そのため、この場合も、サポートオブジェクトを表示することにより、操作オブジェクトの位置まで移動することを支援してもよい。
図7の右下側には、サポートオブジェクト8Aから8Dが表示された画像4Cが示されている。サポートオブジェクト8Aから8Cは、操作オブジェクト3Bの過去の時点のポジションを示し、サポートオブジェクト8Dは移動の軌跡を示している。これにより、ユーザ2Bのポジションと、操作オブジェクト3Bのポジションとの位置関係を認識することができ、ユーザ2Bが操作オブジェクト3Bのポジションまで容易に移動することができる。
なお、モード切替イベントは、オブジェクト同士の衝突に限られるわけではない。例えば、ゲーム内でユーザが特定のアイテムを使用した際に、他のユーザの操作オブジェクトに対してモード切替イベントが実行されてもよい。また、例えば、仮想空間内に進入禁止の領域を設け、操作オブジェクトが当該領域に進入しようとしたときに、モード切替イベントを実行してもよい。これにより、進行先が進入禁止であることをユーザに示唆することができる。なお、進入禁止の領域を囲う壁のようなオブジェクトを設け、当該オブジェクトと操作オブジェクトとの衝突によって、モード切替イベントを実行してもよい。
このように、情報処理装置1は、操作オブジェクトの再操作に、ポーズ、移動などといった手間を要求する。当該手間は、ゲームの難易度の調整、ゲームの嗜好性の向上などに役立つ。例えば、レーシングゲームにおいて、当該手間はタイムロスの要因となる。ゆえに、ユーザは操作オブジェクトが他のオブジェクトと衝突するのを防ぐようになる。また、再操作のために移動を要求する場合において、操作オブジェクトのスピードが速いほど、衝突時に操作オブジェクトが離れる距離を長くするようにすると、当該スピードが速いほど再操作に要する時間が長くなる。そのため、ユーザは、当該スピードを調整するようになり、ゲームの嗜好性が向上する。
なお、上記の情報処理装置1の処理は、娯楽目的だけに用いられるとは限らない。例えば、教育目的でも使用可能である。例えば、ユーザは習得しようとする理想的な動作を行い、情報処理装置1は理想的な動作であるかを操作オブジェクトの動作に基づいて判定し、理想的な動作でない場合に、非同期モードに切り替えて、理想的な動作を自動動作で示してもよい。このようにして、情報処理装置1のユーザは、理想的な動作をトレーニングすることが可能である。また、習得しようとする理想的な動作は、適宜定めてよい。例えば、ダンスなどの運動、手術などの医療行為、機械の操作、物品の製造などにおける動作としてもよい。
上記の処理は、情報処理装置1の構成要素によって分担されて実現される。情報処理装置1の構成要素の各処理について説明する。
受信部11は、情報処理装置1が生成する仮想空間に対する操作信号を受信する。操作信号には、前述のセンサからの位置座標が含まれ得る。また、コントローラなどの特定機器の信号が含まれ得る。その他の信号が含まれていてもよい。
信号解析部は、操作信号を解析し、仮想空間に対する指示を認識する。例えば、各センサからの位置座標を同期させて、ユーザの体勢を認識する。なお、ユーザの体勢およびその変化量に基づいて、ユーザのポジションおよび移動距離を算出してもよい。また、アイテムの使用などといったコマンドを認識する。信号解析部の処理は、前述の通り、モーションキャプチャなどの従来技術を用いればよい。
仮想空間生成部131は、仮想空間を生成し、管理する。例えば、仮想空間の範囲を決定し、仮想空間内に存在するオブジェクトを生成する。また、仮想空間内に前述の進入禁止の領域を設定してもよい。生成されるオブジェクトには、操作オブジェクト、非操作オブジェクト、サポートオブジェクトが含まれる。また、オブジェクトの削除、オブジェクトの外観の変更なども仮想空間生成部131によって行われる。仮想空間の生成は、従来のゲーム装置などで採用されている手法と同じでよい。
指示体勢算出部132は、信号解析部によって認識されたユーザの体勢に基づき、操作オブジェクトに対する指示体勢を算出する。ユーザと、操作オブジェクトとでは、体形が異なるため、ユーザの体勢をそのまま操作オブジェクトの体勢にすることができない。ゆえに、指示体勢算出部132が、ユーザの体勢に基づいて、操作オブジェクトの体勢を算出する。当該算出もモーションキャプチャなどの従来技術を用いればよい。
指示体勢算出部132によって算出された操作オブジェクトの体勢は、実際に操作オブジェクトの体勢となるとは限らない。前述の通り、非同期モードにおいては、ユーザの体勢に基づく操作オブジェクトの体勢は無視される。また、同期モードにおいても、衝突というほどではないが他のオブジェクトと接触している場合などにおいて、自然な体勢にするために、算出された操作オブジェクトの体勢の一部が変えられて、実際のオブジェクトの体勢となり得る。ゆえに、ユーザの体勢に基づく操作オブジェクトの体勢は、操作オブジェクトに対して指示された体勢として、「指示体勢」と記載する。
操作モード決定部133は、前述の情報処理装置1による操作モードの切り替えを司る。つまり、操作モード決定部133は、操作モードの切替条件に基づいて、操作モードを、同期モードにするか非同期モードにするかを決定する。操作モードの切替条件は、前述の通り、特定のイベントの発生としてもよく、イベントが発生したか否かの判定条件は、適宜に定めてよい。あるいは、理想の動作との乖離が所定値以上としてもよい。特定のイベントは、前述の通り、衝突、指示体勢と操作オブジェクトの体勢の一致、サポートオブジェクトと操作オブジェクトのポジションの一致、ユーザの所定地点への移動、ユーザの移動、アイテムの使用などといったものとすることができ、それらの発生は、オブジェクト同士の位置関係、移動距離、オブジェクトの体勢、オブジェクトの加速度、指示体勢、操作信号の解析結果などに基づいて判定することができる。また、理想の動作との乖離は、例えば、ある時点における、理想の体勢の各部位の位置と、指示体勢の各部位の位置と、の距離に基づいて算出してもよい。
オブジェクト動作決定部134は、前述の情報処理装置1によるオブジェクトの体勢およびポジションの決定を司る。つまり、オブジェクト動作決定部134は、現時点から次の指定時点までの仮想空間内の各オブジェクトのポジションおよび体勢の変化を演算し、次の時点の仮想空間内の各オブジェクトのポジションおよび体勢を決定する。演算手法は、従来のゲーム装置などで採用されている手法と同じでよい。しかし、操作モードが同期モードと決定された場合は、指示体勢に基づき、操作オブジェクトの体勢を決定する。つまり、操作オブジェクトの体勢を指示体勢にするようにと指示された場合における操作オブジェクトの体勢を演算し、当該演算結果に基づいて操作オブジェクトの体勢を決定する。また、操作モードが非同期モードと決定された場合は、指示体勢に基づかずに、操作オブジェクトの体勢を決定する。なお、ユーザの移動距離なども考慮して、オブジェクトのポジションを算出してもよい。つまり、ユーザの移動に応じてオブジェクトを移動させてもよい。ユーザの移動距離とオブジェクトの移動距離との比率は適宜に定めてよい。また、サポートオブジェクトが生成されたときは、図7に示したように、サポートオブジェクトを、操作オブジェクトの過去のポジションに移動させてもよい。
画像生成部14は、オブジェクト動作決定部に決定された各オブジェクトの体勢を示す画像を生成する。当該手法は、従来のゲーム装置などで採用されている手法と同じでよい。
送信部15は、生成された画像を、図3にて示したような画像表示デバイスに送信する。こうれにより、図4などで示した画像が、画像表示デバイスを介して、ユーザに視聴される。
図8は、情報処理装置1の全体処理のフローチャートである。操作オブジェクトなどの仮想空間内のオブジェクトは、既に生成されているとする。また、本開示のフローチャートは一例であり、各処理が上記フローの通りに必ず行われる必要はない。
受信部11が操作信号を受信する(S101)。信号解析部12が受信した操作信号を解析し、操作内容を認識する(S102)。前述の通り、操作内容には、ユーザの体勢などが含まれる。
操作モードが同期モードである場合(S103のYES)は、仮想空間処理部13が同期モードにおける処理に基づき、仮想空間内の各オブジェクトの体勢、ポジションなどを決定する(S104)。当該オブジェクトには、操作オブジェクト、非操作オブジェクト、およびサポートオブジェクトも含まれる。当該処理の詳細は後述する。操作モードが同期モードでない場合(S103のNO)は、仮想空間処理部13が非同期モードにおける処理に基づき各オブジェクトの体勢、ポジションなどを決定する(S105)。当該処理についても後述する。
これらの処理により、操作オブジェクトなどの各オブジェクトの動作が決定されるため、画像生成部14が、決定された動作に合わせて仮想空間を表す画像を更新する(S106)。画像生成部14の処理は、従来のゲーム装置の処理と同じでよい。送信部15は、更新された画像を表す信号を画像表示デバイスに送信する(S107)。これにより、図4などで示したような仮想空間を示す画像が表示される。
本フローが繰り返されて、仮想空間内の各オブジェクトの体勢が更新されていく。なお、本フローチャートでは、常に操作信号を受信することを想定しているが、操作信号を受信しなかった場合は、S101およびS102の処理を省略し、ユーザの体勢がそのままであるとみなして処理してもよい。あるいは、エラーを返すようにしてもよい。
次に、仮想空間処理部13の同期モードにおける処理の詳細について説明する。図9は、仮想空間処理部13の同期モードにおける処理のフローチャートである。
指示体勢算出部132がユーザの体勢に基づき、操作オブジェクトへの指示体勢を算出する(S201)。オブジェクト動作決定部134は、操作オブジェクトを指示体勢にした場合の各オブジェクトの体勢、ポジションなどを算出する(S202)。なお、前述の通り、操作オブジェクトの体勢を指示体勢に完全に一致させる必要はなく、操作オブジェクトの体勢が指示体勢とは一部異なっていてもよい。
操作モード決定部133は、算出された各オブジェクトの体勢に基づいて同期モードから非同期モードへの切替条件を満たすかを判定する(S203)。例えば、操作オブジェクトと他のオブジェクトとの位置関係から衝突が発生したか否かを判定してもよい。また、当該衝突によって生じる操作オブジェクトの加速度と指示体勢の変化による加速度との差が閾値以上であるかといった所定の条件に基づいて判定されてもよい。
切替条件を満たすと判定された場合(S204のYES)は、オブジェクト動作決定部134が、例えば転倒などといった物理演算などによる体勢、ポジションを算出して、操作オブジェクトの体勢、ポジションなどを決定する(S205)。このように、指示体勢によらずに、操作オブジェクトの体勢が決定される。そして、操作モード決定部133が操作モードを同期モードから非同期モードに変更する(S206)。また、仮想空間生成部131は、サポオートオブジェクトを生成する(S207)。なお、サポートオブジェクトを生成しない場合は、当該処理は省略される。こうして、本フローは終了し、以降は、非同期モードにおける処理が行われる。
一方、切替条件を満たさないと判定された場合(S204のNO)は、オブジェクト動作決定部134が、指示体勢に基づいて操作対象の体勢等を決定する(S208)。こうして、本フローは終了し、以降においても、同期モードにおける処理が行われる。
次に、仮想空間処理部13の非同期モードにおける処理の詳細について説明する。図10は、仮想空間処理部13の非同期モードにおける処理のフローチャートである。
非同期モードは、前述の通り、物理演算追従と自動動作(同期待ちポーズを含む)に区別される。物理演算追従中である場合(S301のYES)は、オブジェクト動作決定部134が、操作オブジェクトの次時点の物理演算に基づく体勢、例えば、図5のような転倒体勢を算出して各オブジェクトの体勢、ポジションなどを決定する(S302)。物理演算追従中でない場合(S301のNO)、つまり、自動動作中の場合は、オブジェクト動作決定部が、操作オブジェクトの次時点の自動動作に基づく体勢、例えば図5のような起立体勢を算出し、各オブジェクトの体勢、ポジションなどを決定する(S303)。
一方、指示体勢算出部は、オブジェクト動作決定部の処理と並行して、ユーザの体勢に基づいて操作オブジェクトへの指示体勢を算出する(S304)。そして、操作モード決定部は、算出された操作オブジェクトの体勢、操作オブジェクトへの指示体勢などに基づいて、非同期モードから同期モードへの切替条件を満たすかを判定する(S305)。例えば、算出された操作オブジェクトの体勢と、操作オブジェクトへの指示体勢と、が一致しているかを判定する。
切替条件を満たすと判定された場合(S306のYES)は、操作モード決定部は操作モードを非同期モードから同期モードに変更する(S307)。また、オブジェクト管理部は、サポオートオブジェクトを削除する(S308)。なお、サポートオブジェクトを生成していない場合は、当該処理は省略される。こうして、本フローは終了し、以降は、同期モードにおける処理が行われる。一方、切替条件を満たすと判定されなかった場合(S306のNO)は、モードの変更は行われずに、本フローは終了する。ゆえに、以降においても、非同期モードにおける処理が行われる。
以上のように、本開示によれば、ユーザの体勢に基づいて仮想空間内の操作オブジェクトを操作する場合において、転倒などのアクションなどによって生じるユーザおよび操作オブジェクトの体勢の乖離を、ゲーム性を持たせてユーザに自発的に解消させる。これにより、仮想空間に対するユーザの没入感を低下することを防ぐことができる。
本開示の実施形態における装置の処理は、従来のモーションキャプチャ、ゲーム装置などと同じく、CPU(Central Processing Unit)またはGPU(Graphics Processing Unit)などが実行するソフトウェア(プログラム)により実現できる。なお、当該装置の全ての処理をソフトウェアで実行するのではなく、一部の処理が、専用の回路などのハードウェアにより実行されてもよい。
なお、上述の実施形態は本開示を具現化するための一例を示したものであり、その他の様々な形態で本開示を実施することが可能である。例えば、本開示の要旨を逸脱しない範囲で、種々の変形、置換、省略またはこれらの組み合わせが可能である。そのような変形、置換、省略などを行った形態も、本開示の範囲に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
なお、本開示は以下のような構成を取ることもできる。
[1]
仮想空間において操作される第1オブジェクトに対する操作モードを決定する操作モード決定部と、
前記第1オブジェクトの操作者の体勢を認識する指示体勢算出部と、
前記操作モードが第1操作モードと決定された場合は前記指示体勢に基づき、前記操作モードが第2操作モードと決定された場合は前記指示体勢に基づかずに、前記第1オブジェクトの体勢を決定するオブジェクト動作決定部と、
を備え、
前記操作モード決定部は、前記操作モードが前記第2操作モードの場合に、前記指示体勢が所定条件を満たしたと判定したとき に、前記操作モードを前記第1操作モードに切り替える
情報処理装置。
[2]
前記操作モード決定部は、前記操作モードが前記第2操作モードの場合に、前記指示体勢が前記第1オブジェクトの体勢と一致したと判定したときに、前記操作モードを前記第1操作モードに切り替える
[1]に記載の情報処理装置。
[3]
前記オブジェクト動作決定部は、前記操作モードが前記第2操作モードと決定された場合に、前記第1オブジェクトに所定のポーズを取らせ、
前記操作モード決定部は、前記指示体勢が前記ポーズと一致したと判定したときに、前記操作モードを前記第1操作モードに切り替える
[1]または[2]に記載の情報処理装置。
[4]
前記操作モード決定部は、前記操作者のポジションまたは移動距離が所定条件を満たし、かつ、前記指示体勢が所定条件を満たした、と判定したときに、前記操作モードを前記第1操作モードに切り替える
[1]ないし[3]のいずれか一項に記載の情報処理装置。
[5]
前記操作モードが前記第2操作モードに切り替わった際に、前記操作者の移動に応じて前記仮想空間内を移動する第2オブジェクトを生成するオブジェクト生成部
をさらに備え、
前記操作モード決定部は、前記第2オブジェクトのポジションが前記第1オブジェクトのポジションと一致し、かつ、前記指示体勢が所定条件を満たした、と判定したときに、前記操作モードを前記第1操作モードに切り替える
[1]ないし[4]のいずれか一項に記載の情報処理装置。
[6]
前記オブジェクト動作決定部は、前記操作モードが前記第1操作モードと決定された場合に、前記第1オブジェクトの体勢を前記指示体勢に応じたものとする
[1]ないし[5]のいずれか一項に記載の情報処理装置。
[7]
前記操作モード決定部は、前記仮想空間において所定のイベントが発生した場合に、前記操作モードを前記第1操作モードから前記第2操作モードに切り替える
[1]ないし[6]のいずれか一項に記載の情報処理装置。
[8]
前記操作モード決定部は、前記第1オブジェクトと、前記仮想空間内に存在する第3オブジェクトと、の位置関係に基づき、前記イベントの発生を判定する
[7]に記載の情報処理装置。
[9]
前記操作モードが切り替わった際に、前記第1オブジェクトの外観が変化する
[1]ないし[8]のいずれか一項に記載の情報処理装置。
[10]
前記オブジェクト動作決定部は、前記操作モードが前記第2操作モードと決定された場合に、前記第1オブジェクトに複数のポーズを順番に取らせ、
前記操作モード決定部は、前記指示体勢が、前記複数のポーズと、前記第1オブジェクトが取った順番通りに一致したと判定したときに、前記操作モードを前記第1操作モードに切り替える
[1]ないし[9]のいずれか一項に記載の情報処理装置。
[11]
前記操作モード決定部は、所定の物体からの信号が受信され、かつ、前記指示体勢が所定条件を満たしたと判定したときに、前記操作モードを前記第1操作モードに切り替える
[1]ないし[10]のいずれか一項に記載の情報処理装置。
[12]
前記仮想空間の少なくとも一部の領域を表す画像を生成する画像生成部
をさらに備え、
前記オブジェクト動作決定部は、前記操作モードが前記第1操作モードから前記第2操作モードに切り替わった際に、前記領域内に前記第1オブジェクトを移動させる
[1]ないし[11]のいずれか一項に記載の情報処理装置。
[13]
前記操作モードが前記第2操作モードに切り替わった後に、第4オブジェクトを生成するオブジェクト生成部
をさらに備え、
前記オブジェクト動作決定部は、前記第4オブジェクトのポジションを、前記領域内の前記第1オブジェクトの過去のポジションに合わせる
[12]に記載の情報処理装置。
[14]
前記操作モードが前記第2操作モードに切り替わった後に、前記領域内での前記第1オブジェクトの移動の軌跡を示す第5オブジェクトを生成するオブジェクト生成部
をさらに備える[12]に記載の情報処理装置。
[15]
仮想空間において操作される第1オブジェクトに対する操作モードを決定するステップと、
前記第1オブジェクトの操作者の体勢に基づき、前記第1オブジェクトに対する指示体勢を算出するステップと、
前記操作モードが第1操作モードと決定された場合は前記指示体勢に基づき、前記操作モードが第2操作モードと決定された場合は前記指示体勢に基づかずに、前記第1オブジェクトの体勢を決定するステップと、
を備え、
前記操作モードが前記第2操作モードの場合に、前記指示体勢が所定条件を満たしたと判定したときに、前記操作モードが前記第1操作モードに切り替えられる
情報処理方法。
[16]
仮想空間において操作される第1オブジェクトに対する操作モードを決定するステップと、
前記第1オブジェクトの操作者の体勢に基づき、前記第1オブジェクトに対する指示体勢を算出するステップと、
前記操作モードが第1操作モードと決定された場合は前記指示体勢に基づき、前記操作モードが第2操作モードと決定された場合は前記指示体勢に基づかずに、前記第1オブジェクトの体勢を決定するステップと、
を備え、
前記操作モードが前記第2操作モードの場合に、前記指示体勢が所定条件を満たしたと判定したときに、前記操作モードが前記第1操作モードに切り替えられる
プログラム。
1 情報処理装置
1A 携帯可能な情報処理装置
1B 固定式の情報処理装置
11 受信部
12 信号解析部
13 仮想空間処理部
131 仮想空間生成部
132 指示体勢算出部
133 操作モード決定部
134 オブジェクト動作決定部
14 画像生成部
15 送信部
2、2A、2B ユーザ
3、3A、3B 操作オブジェクト
4、4A、4B、4C 画像
5 センサ
6A ヘッドマウントディスプレイ
6B モニタ
6C プロジェクタ
7 非操作オブジェクト
8、8A、8B、8C、8D サポートオブジェクト
9A 操作オブジェクトの停止地点
9B 現実の所定の地点

Claims (16)

  1. 仮想空間において操作される第1オブジェクトに対する操作モードを決定する操作モード決定部と、
    前記第1オブジェクトの操作者の体勢に基づき、前記第1オブジェクトに対する指示体勢を算出する指示体勢算出部と、
    前記操作モードが第1操作モードと決定された場合は前記指示体勢に基づき、前記操作モードが第2操作モードと決定された場合は前記指示体勢に基づかずに、前記第1オブジェクトの体勢を決定するオブジェクト動作決定部と、
    を備え、
    前記操作モード決定部は、前記操作モードが前記第2操作モードの場合に、前記指示体勢が所定条件を満たしたと判定したときに、前記操作モードを前記第1操作モードに切り替える
    情報処理装置。
  2. 前記操作モード決定部は、前記操作モードが前記第2操作モードの場合に、前記指示体勢が前記第1オブジェクトの体勢と一致したと判定したときに、前記操作モードを前記第1操作モードに切り替える
    請求項1に記載の情報処理装置。
  3. 前記オブジェクト動作決定部は、前記操作モードが前記第2操作モードと決定された場合に、前記第1オブジェクトに所定のポーズを取らせ、
    前記操作モード決定部は、前記指示体勢が前記ポーズと一致したと判定したときに、前記操作モードを前記第1操作モードに切り替える
    請求項1に記載の情報処理装置。
  4. 前記操作モード決定部は、前記操作者のポジションまたは移動距離が所定条件を満たし、かつ、前記指示体勢が所定条件を満たした、と判定したときに、前記操作モードを前記第1操作モードに切り替える
    請求項1に記載の情報処理装置。
  5. 前記操作モードが前記第2操作モードに切り替わった際に、第2オブジェクトを生成するオブジェクト生成部
    をさらに備え、
    前記オブジェクト動作決定部は、前記操作者の移動に応じて前記第2オブジェクトを前記仮想空間内において移動させ、
    前記操作モード決定部は、前記第2オブジェクトのポジションが前記第1オブジェクトのポジションと一致し、かつ、前記指示体勢が所定条件を満たした、と判定したときに、前記操作モードを前記第1操作モードに切り替える
    請求項1に記載の情報処理装置。
  6. 前記オブジェクト動作決定部は、前記操作モードが前記第1操作モードと決定された場合に、前記第1オブジェクトの体勢を前記指示体勢に応じたものとする
    請求項1に記載の情報処理装置。
  7. 前記操作モード決定部は、前記仮想空間において所定のイベントが発生した場合に、前記操作モードを前記第1操作モードから前記第2操作モードに切り替える
    請求項1に記載の情報処理装置。
  8. 前記操作モード決定部は、前記第1オブジェクトと、前記仮想空間内に存在する第3オブジェクトと、の位置関係に基づき、前記イベントの発生を判定する
    請求項7に記載の情報処理装置。
  9. 前記操作モードが切り替わった際に、前記第1オブジェクトの外観が変化する
    請求項1に記載の情報処理装置。
  10. 前記オブジェクト動作決定部は、前記操作モードが前記第2操作モードと決定された場合に、前記第1オブジェクトに複数のポーズを順番に取らせ、
    前記操作モード決定部は、前記指示体勢が、前記複数のポーズと、前記第1オブジェクトが取った順番通りに一致したと判定したときに、前記操作モードを前記第1操作モードに切り替える
    請求項1に記載の情報処理装置。
  11. 前記操作モード決定部は、所定の物体からの信号が受信され、かつ、前記指示体勢が所定条件を満たしたと判定したときに、前記操作モードを前記第1操作モードに切り替える
    請求項1に記載の情報処理装置。
  12. 前記仮想空間の少なくとも一部の領域を表す画像を生成する画像生成部
    をさらに備え、
    前記オブジェクト動作決定部は、前記操作モードが前記第1操作モードから前記第2操作モードに切り替わった際に、前記領域内に前記第1オブジェクトを移動させる
    請求項1に記載の情報処理装置。
  13. 前記操作モードが前記第2操作モードに切り替わった後に、第4オブジェクトを生成するオブジェクト生成部
    をさらに備え、
    前記オブジェクト動作決定部は、前記第4オブジェクトのポジションを、前記領域内の前記第1オブジェクトの過去のポジションに合わせる
    請求項12に記載の情報処理装置。
  14. 前記操作モードが前記第2操作モードに切り替わった後に、前記領域内での前記第1オブジェクトの移動の軌跡を示す第5オブジェクトを生成するオブジェクト生成部
    をさらに備える請求項12に記載の情報処理装置。
  15. 仮想空間において操作される第1オブジェクトに対する操作モードを決定するステップと、
    前記第1オブジェクトの操作者の体勢に基づき、前記第1オブジェクトに対する指示体勢を算出するステップと、
    前記操作モードが第1操作モードと決定された場合は前記指示体勢に基づき、前記操作モードが第2操作モードと決定された場合は前記指示体勢に基づかずに、前記第1オブジェクトの体勢を決定するステップと、
    を備え、
    前記操作モードが前記第2操作モードの場合に、前記指示体勢が所定条件を満たしたと判定したときに、前記操作モードが前記第1操作モードに切り替えられる
    情報処理方法。
  16. 仮想空間において操作される第1オブジェクトに対する操作モードを決定するステップと、
    前記第1オブジェクトの操作者の体勢に基づき、前記第1オブジェクトに対する指示体勢を算出するステップと、
    前記操作モードが第1操作モードと決定された場合は前記指示体勢に基づき、前記操作モードが第2操作モードと決定された場合は前記指示体勢に基づかずに、前記第1オブジェクトの体勢を決定するステップと、
    を備え、
    前記操作モードが前記第2操作モードの場合に、前記指示体勢が所定条件を満たしたと判定したときに、前記操作モードが前記第1操作モードに切り替えられる
    プログラム。
JP2020086775A 2020-05-18 2020-05-18 情報処理装置、情報処理方法、およびプログラム Pending JP2023087130A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020086775A JP2023087130A (ja) 2020-05-18 2020-05-18 情報処理装置、情報処理方法、およびプログラム
US17/922,764 US11954244B2 (en) 2020-05-18 2021-05-06 Information processing device and information processing method
PCT/JP2021/017398 WO2021235232A1 (ja) 2020-05-18 2021-05-06 情報処理装置、情報処理方法、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020086775A JP2023087130A (ja) 2020-05-18 2020-05-18 情報処理装置、情報処理方法、およびプログラム

Publications (1)

Publication Number Publication Date
JP2023087130A true JP2023087130A (ja) 2023-06-23

Family

ID=78708337

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020086775A Pending JP2023087130A (ja) 2020-05-18 2020-05-18 情報処理装置、情報処理方法、およびプログラム

Country Status (3)

Country Link
US (1) US11954244B2 (ja)
JP (1) JP2023087130A (ja)
WO (1) WO2021235232A1 (ja)

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6430997B1 (en) * 1995-11-06 2002-08-13 Trazer Technologies, Inc. System and method for tracking and assessing movement skills in multidimensional space
US7789742B1 (en) * 1999-05-12 2010-09-07 Wilbert Q. Murdock Smart golf club multiplayer system for the internet
JP4848515B2 (ja) 2006-06-12 2011-12-28 国立大学法人九州工業大学 アバター動作制御システム、そのプログラム及び方法
EP2554225A4 (en) 2010-03-30 2014-08-06 Capcom Co PROGRAM AND RECORDING MEDIUM ON WHICH THE PROGRAM IS RECORDED
GB2481366B (en) * 2010-06-03 2014-05-28 Sony Comp Entertainment Europe Entertainment device and entertainment methods
JP5148660B2 (ja) * 2010-06-11 2013-02-20 株式会社バンダイナムコゲームス プログラム、情報記憶媒体及び画像生成システム
US8385596B2 (en) * 2010-12-21 2013-02-26 Microsoft Corporation First person shooter control with virtual skeleton
GB201709199D0 (en) * 2017-06-09 2017-07-26 Delamont Dean Lindsay IR mixed reality and augmented reality gaming system
US11143736B2 (en) * 2017-11-17 2021-10-12 Trinamix Gmbh Detector for determining a position of at least one object comprising at least one device to determine relative spatial constellation from a longitudinal coordinate of the object and the positions of reflection image and reference image
JP6955541B2 (ja) 2018-08-30 2021-10-27 株式会社バンダイ 遊戯システム及び遊戯方法並びにプログラム
JP6691258B1 (ja) 2019-08-28 2020-04-28 任天堂株式会社 情報処理システム、情報処理プログラム、情報処理装置、および情報処理方法

Also Published As

Publication number Publication date
US11954244B2 (en) 2024-04-09
US20230161401A1 (en) 2023-05-25
WO2021235232A1 (ja) 2021-11-25

Similar Documents

Publication Publication Date Title
JP6754678B2 (ja) シミュレーションシステム及びプログラム
JP6396027B2 (ja) プログラムおよびゲーム装置
US9884248B2 (en) Display control method for head-mounted display (HMD) and image generation device
US10510189B2 (en) Information processing apparatus, information processing system, and information processing method
US9833705B2 (en) Storage medium storing information processing program, information processing apparatus and information processing method
US10589176B2 (en) Method of providing a virtual space, medium for causing a computer to execute the method, and system for providing a virtual space
US20110185309A1 (en) Gesture-based user interface
JP2011258159A (ja) プログラム、情報記憶媒体及び画像生成システム
EP1908504A1 (en) Game system, control method thereof, game device, and program
US20160107080A1 (en) Information processing apparatus, computer-readable non-transitory storage medium having stored therein information processing program, information processing method, and information processing system
CN110769906A (zh) 模拟系统、图像处理方法以及信息存储介质
JPH10333834A (ja) 情報記憶媒体及び画像生成装置
US20230135138A1 (en) Vr training system for aircraft, vr training method for aircraft, and vr training program for aircraft
US11740688B2 (en) Virtual space experience system
US8482519B2 (en) Storage medium storing information processing program, information processing apparatus and information processing method
JP6672401B2 (ja) ゲームプログラム、方法、および情報処理装置
US11954244B2 (en) Information processing device and information processing method
US20230191253A1 (en) Information processing system, non-transitory computer-readable storage medium having stored therein program, information processing apparatus, and information processing method
JP2019020832A (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP2018147375A (ja) 情報処理方法、コンピュータ、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP6498732B2 (ja) ゲームプログラム、方法、および情報処理装置
JP7337732B2 (ja) プログラム
JP7055527B1 (ja) 仮想空間体感システム
JP2019080742A (ja) プログラムおよびコンピュータシステム
JP4420933B2 (ja) 情報記憶媒体及び画像生成装置