JP6984645B2 - Image processing equipment, image processing methods, and image systems - Google Patents
Image processing equipment, image processing methods, and image systems Download PDFInfo
- Publication number
- JP6984645B2 JP6984645B2 JP2019501226A JP2019501226A JP6984645B2 JP 6984645 B2 JP6984645 B2 JP 6984645B2 JP 2019501226 A JP2019501226 A JP 2019501226A JP 2019501226 A JP2019501226 A JP 2019501226A JP 6984645 B2 JP6984645 B2 JP 6984645B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- posture
- avatar
- user
- presented
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/52—Controlling the output signals based on the game progress involving aspects of the displayed game scene
- A63F13/525—Changing parameters of virtual cameras
- A63F13/5255—Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/211—Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/52—Controlling the output signals based on the game progress involving aspects of the displayed game scene
- A63F13/525—Changing parameters of virtual cameras
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/80—Special adaptations for executing a specific game genre or game mode
- A63F13/833—Hand-to-hand fighting, e.g. martial arts competition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/64—Constructional details of receivers, e.g. cabinets or dust covers
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/80—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
- A63F2300/8082—Virtual reality
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Geometry (AREA)
- Computing Systems (AREA)
- Signal Processing (AREA)
- Software Systems (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Description
本技術は、画像処理装置、画像処理方法、および画像システムに関し、特に、「VR酔い」等のユーザの不快感を軽減することができるようにした画像処理装置、画像処理方法、および画像システムに関する。 The present technology relates to an image processing device, an image processing method, and an image system, and more particularly to an image processing device, an image processing method, and an image system capable of reducing user discomfort such as "VR sickness". ..
近年、ヘッドマウントディスプレイやヘッドアップディスプレイは、広視野角な映像提示が可能になってきており、体や頭部の姿勢に応じて、表示させる映像の方向や姿勢を自然に変化・追従(トラッキング)させることにより、より臨場感の高い1人称視点体験が実現可能になってきている。1人称視点は、ビデオゲームの世界では特にファーストパーソン・シューティング(F.P.S.)などと呼ばれ、人気が出始めている。 In recent years, head-mounted displays and head-up displays have become capable of presenting images with a wide viewing angle, and the direction and orientation of the images to be displayed naturally change and follow (tracking) according to the posture of the body or head. ), It has become possible to realize a more realistic first-person perspective experience. The first-person perspective is becoming more and more popular in the world of video games, especially as first-person shooters (F.P.S.).
一方で、ヘッドマウントディスプレイやヘッドアップディスプレイを用いたバーチャルリアリティ(VR)体験をしたときに、一部のユーザが「VR酔い」や「映像酔い」と呼ばれる不快感を催す事例があることが知られている。これは、ユーザが体感したり、経験から予測している感覚と実際の感覚(例えば視覚刺激)にずれがあると発生すると言われている。 On the other hand, it is known that there are cases where some users experience discomfort called "VR sickness" or "video sickness" when experiencing virtual reality (VR) using a head-mounted display or head-up display. Has been done. It is said that this occurs when there is a discrepancy between the sensation that the user experiences or predicts from experience and the actual sensation (for example, visual stimulus).
この「VR酔い」や「映像酔い」の不快感を軽減させるための工夫が提案されている(例えば、特許文献1参照)。 A device for reducing the discomfort of "VR sickness" and "video sickness" has been proposed (see, for example, Patent Document 1).
しかしながら、このような「VR酔い」等の不快感に対する対策がさらに求められている。 However, there is a further demand for measures against such discomfort such as "VR sickness".
本技術は、このような状況に鑑みてなされたものであり、「VR酔い」等のユーザの不快感を軽減することができるようにするものである。 This technology was made in view of such a situation, and makes it possible to reduce user discomfort such as "VR sickness".
本技術の一側面の画像処理装置は、仮想世界上のユーザに相当するアバタの視点によるアバタ視点画像を、前記ユーザに提示する第1の提示画像として生成し、前記ユーザの動きを検出した検出結果に基づく前記ユーザの実姿勢と、前記アバタの姿勢との姿勢差が生じる場合、前記アバタ視点画像と異なる第2の提示画像を生成する画像生成部を備え、前記姿勢は、頭部位置と、方位角および仰角で表される視線方向とで定義され、前記第2の提示画像は、前記アバタの姿勢の方位角または仰角の少なくとも一方を前記ユーザの実姿勢の値とした姿勢に対応する画像である。 The image processing device of one aspect of the present technology generates an avatar viewpoint image from the viewpoint of the avatar corresponding to the user in the virtual world as the first presented image to be presented to the user, and detects the movement of the user. When there is a posture difference between the actual posture of the user based on the result and the posture of the avatar, an image generation unit that generates a second presented image different from the viewpoint image of the avatar is provided , and the posture is the head position. The second presented image corresponds to a posture in which at least one of the avatar's posture and the elevation is set as the value of the user's actual posture. It is an image .
本技術の一側面の画像処理方法は、画像処理装置が、仮想世界上のユーザに相当するアバタの視点によるアバタ視点画像を、前記ユーザに提示する第1の提示画像として生成し、前記ユーザの動きを検出した検出結果に基づく前記ユーザの実姿勢と、前記アバタの姿勢との姿勢差が生じる場合、前記アバタ視点画像と異なる第2の提示画像を生成し、前記姿勢は、頭部位置と、方位角および仰角で表される視線方向とで定義され、前記第2の提示画像は、前記アバタの姿勢の方位角または仰角の少なくとも一方を前記ユーザの実姿勢の値とした姿勢に対応する画像である。 In the image processing method of one aspect of the present technology, the image processing apparatus generates an avatar viewpoint image from the viewpoint of the avatar corresponding to the user in the virtual world as the first presented image to be presented to the user, and the user's image processing method is performed. When there is a posture difference between the actual posture of the user based on the detection result of detecting the movement and the posture of the avatar, a second presentation image different from the viewpoint image of the avatar is generated, and the posture is the head position. The second presented image corresponds to a posture in which at least one of the avatar's posture and the elevation is set as the value of the user's actual posture. It is an image .
本技術の一側面の画像システムは、仮想世界上のユーザに相当するアバタの視点によるアバタ視点画像を、前記ユーザに提示する第1の提示画像として生成し、前記ユーザの動きを検出した検出結果に基づく前記ユーザの実姿勢と、前記アバタの姿勢との姿勢差が生じる場合、前記アバタ視点画像と異なる第2の提示画像を生成する画像生成部と、前記第1の提示画像および前記第2の提示画像を表示する表示部とを備え、前記姿勢は、頭部位置と、方位角および仰角で表される視線方向とで定義され、前記第2の提示画像は、前記アバタの姿勢の方位角または仰角の少なくとも一方を前記ユーザの実姿勢の値とした姿勢に対応する画像である。 The image system of one aspect of the present technology generates an avatar viewpoint image from the viewpoint of the avatar corresponding to the user in the virtual world as the first presented image to be presented to the user, and the detection result of detecting the movement of the user. When there is a posture difference between the actual posture of the user and the posture of the avatar based on the above, an image generation unit that generates a second presentation image different from the avatar viewpoint image, the first presentation image, and the second presentation image. The posture is defined by a head position and a line-of-sight direction represented by an azimuth angle and an elevation angle, and the second presentation image is the orientation of the avatar's posture. It is an image corresponding to the posture in which at least one of the angle or the elevation angle is set as the value of the actual posture of the user .
本技術の一側面においては、仮想世界上のユーザに相当するアバタの視点によるアバタ視点画像が、前記ユーザに提示する第1の提示画像として生成され、前記ユーザの動きを検出した検出結果に基づく前記ユーザの実姿勢と、前記アバタの姿勢との姿勢差が生じる場合、前記アバタ視点画像と異なる第2の提示画像が生成される。前記姿勢は、頭部位置と、方位角および仰角で表される視線方向とで定義され、前記第2の提示画像は、前記アバタの姿勢の方位角または仰角の少なくとも一方を前記ユーザの実姿勢の値とした姿勢に対応する画像とされる。 In one aspect of the present technology, an avatar viewpoint image from the viewpoint of the avatar corresponding to the user in the virtual world is generated as the first presentation image to be presented to the user, and is based on the detection result of detecting the movement of the user. When there is a posture difference between the actual posture of the user and the posture of the avatar, a second presentation image different from the avatar viewpoint image is generated. The posture is defined by a head position and a line-of-sight direction represented by an azimuth and an elevation angle, and in the second presented image, at least one of the azimuth or elevation angle of the avatar's posture is the actual posture of the user. The image corresponds to the posture set to the value of.
なお、本技術の一側面の画像処理装置は、コンピュータにプログラムを実行させることにより実現することができる。 The image processing device of one aspect of the present technology can be realized by causing a computer to execute a program.
また、本技術の一側面の画像処理装置を実現するために、コンピュータに実行させるプログラムは、伝送媒体を介して伝送することにより、又は、記録媒体に記録して、提供することができる。 Further, in order to realize the image processing apparatus of one aspect of the present technology, a program to be executed by a computer can be provided by transmitting via a transmission medium or by recording on a recording medium.
画像処理装置は、独立した装置であっても良いし、1つの装置を構成している内部ブロックであっても良い。 The image processing device may be an independent device or an internal block constituting one device.
本技術の一側面によれば、「VR酔い」等のユーザの不快感を軽減することができる。 According to one aspect of the present technology, it is possible to reduce user discomfort such as "VR sickness".
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。 The effects described herein are not necessarily limited, and may be any of the effects described in the present disclosure.
以下、本技術を実施するための形態(以下、実施の形態という)について説明する。 Hereinafter, embodiments for implementing the present technology (hereinafter referred to as embodiments) will be described.
<画像システムの構成例>
図1は、本技術を適用した画像システムの一実施の形態の構成例を示している。<Image system configuration example>
FIG. 1 shows a configuration example of an embodiment of an image system to which the present technology is applied.
図1の画像システム1は、ヘッドマウントディスプレイ11(以下、HMD11と記述する。)、画像処理装置12、および、コントローラ13により構成される。
The
HMD11は、画像処理装置12で生成された、仮想世界上の画像を表示し、ユーザに提示する。画像処理装置12は、HMD11に表示させる画像を生成し、HMD11に供給する。コントローラ13は、複数の操作ボタン(不図示)を備え、ユーザの操作を受け付けて、ユーザの操作に応じた所定の指示を画像処理装置12に供給する。
The HMD 11 displays an image on the virtual world generated by the
HMD11と画像処理装置12との間、画像処理装置12とコントローラ13との間は、例えばHDMI(登録商標)(High Definition Multimedia Interface)やMHL(Mobile High−definition Link)などの有線ケーブル、あるいは、Wi−Fi(Wireless Fidelity)、wirelessHDやMiracastのような無線通信により接続される。
Between the
本実施の形態では、例えば、画像処理装置12は、図2に示されるような画像を表示させる。図2の画像は、HMD11を装着しているユーザをプレーヤとした1人称視点のボクシングゲーム(コンテンツ)の画像である。HMD11に表示される画像は、2D画像でもよし、ユーザの右眼に見せるための右眼用画像と、ユーザの左眼に見せるための左眼用画像を表示して、立体的に視認させる3D画像でもよい。
In this embodiment, for example, the
以上のように構成される画像システム1において、画像処理装置12は、ユーザがHMD11に表示された画像を視認して仮想世界を体験している状態において、「VR酔い」等の不快感を軽減させるように画像を生成して、HMD11に表示させる。
In the
なお、HMD11、画像処理装置12、及び、コントローラ13は、必要に応じて合体されて、画像システム1が、1つまたは2つの装置で構成されてもよい。
The HMD 11, the
<画像システムの詳細構成例>
図3は、画像システム1の詳細構成例を示すブロック図である。<Detailed configuration example of image system>
FIG. 3 is a block diagram showing a detailed configuration example of the
HMD11は、センサ41と表示部42を備える。
The HMD 11 includes a
センサ41は、例えば、ジャイロ・センサ、加速度センサ、地磁気センサなどの1以上のセンサ素子の組み合わせで構成され、ユーザの頭部の位置及び方向を検出する。本実施の形態では、センサ41は、3軸ジャイロ・センサ、3軸加速度センサ、3軸地磁気センサの合計9軸を検出可能なセンサであるとする。センサ41は、検出した結果を画像処理装置12に供給する。
The
表示部42は、例えば有機EL(Electro−Luminescence)素子や液晶ディスプレイなどで構成され、画像処理装置12から供給される画像信号に基づいて所定の画像を表示する。
The
なお、HMD11には、音声出力を行うスピーカや、ユーザの音声を取得するマイクロホンなどがあってもよい。 The HMD 11 may include a speaker that outputs voice, a microphone that acquires the voice of the user, and the like.
コントローラ13は、複数の操作ボタンを含む操作部81を備え、ユーザの操作を受け付けて、ユーザの操作に応じた所定の指示を画像処理装置12に供給する。
The
画像処理装置12は、記憶部61と画像生成部62を少なくとも有し、画像生成部62は、アバタ動作制御部71、ユーザ姿勢検出部72、姿勢差算出部73、及び、提示画像生成部74により構成される。
The
記憶部61は、例えば、ハードディスクや不揮発性のメモリなどで構成され、画像処理装置12の動作を制御するプログラムや、HMD11に画像を表示するためのコンテンツ(プログラム)などを記憶する。
The
アバタ動作制御部71は、表示部42に表示される仮想世界上の画像(コンテンツ画像)においてユーザに相当するアバタの動作(姿勢)を制御する。アバタの動作(姿勢)の制御には、ユーザ姿勢検出部72によって検出される、ユーザの実際の姿勢(ユーザの実姿勢)も考慮される。アバタの動作は、例えば、表示部42に表示された仮想世界のコンテンツ画像において、ユーザが選択した動作や、ユーザが行ったアクション等によって変化する。
The avatar
アバタ動作制御部71は、例えば、図2に示したボクシングゲームの対戦相手のように、表示部42に表示される画像にプレーヤ本人以外のアバタが登場する場合には、他人のアバタの動作(姿勢)も制御する。以下では、ユーザ本人のアバタと、他人のアバタを区別するため、他人のアバタを意味する場合は、他人アバタと称することとして、単にアバタと称する場合には、ユーザ本人のアバタを意味するものとする。
When an avatar other than the player himself / herself appears in the image displayed on the
ユーザ姿勢検出部72は、センサ41から供給される、ユーザの頭部の位置及び方向の検出結果に基づいて、ユーザの実姿勢を検出する。
The user
姿勢差算出部73は、アバタ動作制御部71によって決定されたアバタの姿勢と、ユーザ姿勢検出部72によって検出されたユーザの実姿勢との姿勢差を算出する。
The posture
提示画像生成部74は、記憶部61から取得されたコンテンツの画像であって、ユーザに提示する提示画像を生成し、表示部42に供給する。提示画像は、アバタ動作制御部71によって決定されたユーザ本人のアバタと他人アバタの動作、ユーザ姿勢検出部72によって決定されたユーザの実姿勢、及び、姿勢差算出部73によって決定されたアバタの姿勢とユーザの実姿勢の姿勢差とに基づいて生成される。提示画像生成部74は、通常の場面では、ユーザの実姿勢にアバタの姿勢を合わせ、アバタの視点による画像がユーザに提示されるように提示画像(第1の提示画像)を生成するが、所定の条件下においては、「VR酔い」等のユーザの不快感を軽減させるため、アバタ視点の画像とは異なる画像を提示画像(第2の提示画像)として生成し、表示部42に表示させる。
The presentation
<提示画像の説明>
図4及び図5を参照して、提示画像生成部74によって生成される提示画像についてさらに説明する。<Explanation of the presented image>
The presentation image generated by the presentation
初めに、図4を参照して、表示部42に表示されるコンテンツ内の仮想世界と、仮想世界上のアバタの姿勢を表現する座標系について説明する。
First, with reference to FIG. 4, a virtual world in the content displayed on the
図4のAに示されるように、表示部42に表示されるコンテンツ内の仮想世界をX軸、Y軸、及び、Z軸からなる3次元空間とすると、アバタの姿勢は、3次元位置(x,y,z)と2次元の方向(θ,φ)とからなる5つのパラメータ(x,y,z,θ,φ)で表現することができる。
As shown in A of FIG. 4, assuming that the virtual world in the content displayed on the
ここで、3次元位置(x,y,z)は、仮想世界上のアバタの頭部の位置に対応し、2次元の方向(θ,φ)は、仮想世界上のアバタの視線方向(頭部が向く方向)に対応する。方向θは、図4のBに示されるように、XZ平面上の所定の基準軸(図4のBの例ではZ軸)に対して視線方向がなす角であり、いわゆる方位角である。方向φは、図4のCに示されるように、XZ平面に対して視線方向がなすY軸方向の角であり、いわゆる仰角である。したがって、本明細書における姿勢には、仮想世界上の頭部位置だけでなく、視線方向も含まれる。 Here, the three-dimensional position (x, y, z) corresponds to the position of the avatar's head in the virtual world, and the two-dimensional direction (θ, φ) corresponds to the line-of-sight direction (head) of the avatar in the virtual world. Corresponds to the direction in which the part faces). As shown in B of FIG. 4, the direction θ is an angle formed by the line-of-sight direction with respect to a predetermined reference axis (Z axis in the example of B in FIG. 4) on the XZ plane, and is a so-called azimuth angle. As shown in C of FIG. 4, the direction φ is an angle in the Y-axis direction formed by the line-of-sight direction with respect to the XZ plane, and is a so-called elevation angle. Therefore, the posture in the present specification includes not only the head position on the virtual world but also the line-of-sight direction.
表示部42に表示されるコンテンツの仮想世界において、ユーザ姿勢posu、アバタ姿勢posa、及び、提示画像姿勢posvの3つの姿勢を以下のように定義する。
ユーザ姿勢posu=(xu,yu,zu,θu,φu)
アバタ姿勢posa=(xa,ya,za,θa,φa)
提示画像姿勢posv=(xv,yv,zv,θv,φv)In the virtual world of the content displayed on the
User posture pos u = (x u , yu , z u , θ u , φ u )
Avatar attitude pos a = (x a, y a, z a, θ a, φ a)
Presented image posture pos v = (x v , y v , z v , θ v , φ v )
ユーザ姿勢posuとは、センサ41から供給される検出結果によって決定されるユーザの実姿勢を仮想世界上に投影したものである。アバタ姿勢posaとは、アバタの姿勢を仮想世界上の座標で表現したものである。提示画像姿勢posvは、表示部42に表示される提示画像に対応する仮想の姿勢である。The user position pos u, is the actual posture of the user as determined by the detection result supplied from the
図5を参照して、ユーザ姿勢posu、アバタ姿勢posa、及び、提示画像姿勢posvの3つの姿勢について具体的に説明する。With reference to FIG. 5, the three postures of the user posture pos u , the avatar posture pos a , and the presented image posture pos v will be specifically described.
図2に示したボクシングゲームのコンテンツの例で説明する。 This will be described with an example of the contents of the boxing game shown in FIG.
例えば、通常の場面では、ユーザ姿勢検出部72によって検出されるユーザの実姿勢に応じてアバタの姿勢が制御されるので、アバタ姿勢posaとユーザ姿勢posuは同一となる。つまり、アバタ姿勢posa=ユーザ姿勢posuである。また、表示部42に表示される提示画像は、アバタの視点からの仮想世界の画像となるので、提示画像姿勢posv=アバタ姿勢posaである。For example, in a normal situation, the posture of the avatar is controlled according to the actual posture of the user detected by the user
したがって、「VR酔い」を軽減する特別な処理を行わない通常の場面では、
提示画像姿勢posv=アバタ姿勢posa=ユーザ姿勢posu
となる。Therefore, in normal situations where no special treatment is done to reduce "VR sickness",
Presented image posture pos v = avatar posture pos a = user posture pos u
Will be.
次に、例として、対戦相手のパンチによって、アバタがダウンした(地面に倒れた)場面を想定する。 Next, as an example, assume a scene in which the down feather (falls to the ground) is brought down by the punch of the opponent.
実際のユーザは地面に倒れておらず、図5の姿勢101のように立った姿勢であるとすると、ユーザ姿勢検出部72によって算出されるユーザ姿勢posu=(xu,yu,zu,θu,φu)は姿勢101となる。Assuming that the actual user is not lying on the ground and is in a standing posture as shown in the
一方、アバタ動作制御部71によって制御されるアバタ姿勢posa=(xa,ya,za,θa,φa)は、図5に示される、地面に倒れた姿勢102となる。On the other hand, avatar attitude is controlled by the avatar action control unit 71 pos a = (x a, y a, z a, θ a, φ a) is shown in Figure 5, the
通常の場面では、上述したように、アバタの視点からの仮想世界の画像を提示画像とするが、アバタの急激な移動に合わせて提示画像を大きく変化させると、ユーザが「VR酔い」をおこすおそれがある。 In a normal scene, as described above, the image of the virtual world from the viewpoint of the avatar is used as the presentation image, but if the presentation image is changed significantly according to the sudden movement of the avatar, the user causes "VR sickness". There is a risk.
そこで、提示画像生成部74は、アバタ姿勢posa(図5の姿勢102)に対応する画像ではなく、例えば、ユーザの実姿勢(図5の姿勢101)に近い姿勢103に対応する画像111を提示画像として生成し、表示部42に表示させる。提示画像としての画像111は、アバタ姿勢posaに対応する画像よりも視界変化が緩やかな画像である。提示画像となる画像111に対応する姿勢103が、提示画像姿勢posv=(xv,yv,zv,θv,φv)である。Therefore, presenting
図5の例では、VR酔いを軽減する処理が施された場面では、提示画像姿勢posvは、アバタ姿勢posaとユーザ姿勢posuのいずれの姿勢とも異なるが、提示画像は、少なくとも通常場面の提示画像であるアバタ視点画像とは異なる画像であればよい。例えば、提示画像は、ユーザの実姿勢に対応する画像でもよい。In the example of FIG. 5, in the scene where the processing for reducing VR sickness is performed, the presented image posture pos v is different from both the avatar posture pos a and the user posture pos u , but the presented image is at least a normal scene. It may be an image different from the avatar viewpoint image which is the presentation image of. For example, the presented image may be an image corresponding to the actual posture of the user.
<提示画像生成処理>
次に、図6のフローチャートを参照して、画像処理装置12による提示画像生成処理について説明する。この処理は、例えば、HMD11の表示部42に所定のコンテンツ画像を表示させる操作が行われたとき開始される。<Presentation image generation process>
Next, the presentation image generation process by the
初めに、ステップS1において、アバタ動作制御部71は、表示部42に表示される仮想世界におけるアバタの動作(アバタ姿勢posa)を決定する。また、仮想世界上にプレーヤ本人以外の他人アバタが登場する場合には、他人アバタの動作(姿勢)も決定する。ステップS1以降、アバタの動作の決定は、コンテンツの内容に従って常時実行される。First, in step S1, the avatar
ステップS2において、ユーザ姿勢検出部72は、センサ41から供給された、ユーザの頭部の位置及び方向を示すセンサ検出結果に基づいて、ユーザの実姿勢posuを検出する。センサ検出結果に基づくユーザの実姿勢posuの検出も、これ以降常時実行される。検出されたユーザの実姿勢posuはアバタ動作制御部71に供給され、アバタの動作(姿勢)が、ユーザの動作に合わせられる。In step S2, the
ステップS3において、提示画像生成部74は、アバタの視点からの画像であるアバタ視点画像を提示画像として生成し、HMD11の表示部42に供給して表示させる。ここでの提示画像姿勢posvは、アバタ姿勢posa及びユーザ姿勢posuと等しくなる(提示画像姿勢posv=アバタ姿勢posa=ユーザ姿勢posu)。In step S3, the presentation
ステップS4において、姿勢差算出部73は、アバタ動作制御部71によって決定されたアバタ姿勢posaと、ユーザ姿勢検出部72によって検出されたユーザの実姿勢posuとの姿勢差を算出して、提示画像生成部74に供給する。In step S4, the posture
ステップS5において、提示画像生成部74は、アバタ姿勢posaとユーザの実姿勢posuとの姿勢差が、予め決定された第1の範囲以上であるかを判定する。In step S5, the presentation
ここで、ステップS5における第1の範囲として、例えば、方位角θの閾値thresθおよび、仰角φの閾値thresφを設定し、以下の式(1)または式(2)のどちらかの条件を満たしたとき、提示画像生成部74は、アバタ姿勢posaとユーザの実姿勢posuとの姿勢差が第1の範囲以上であると判定することができる。式(1)及び式(2)の|d|は、dの絶対値を表す。
|θa−θu|>thresθ ・・・(1)
|φa−φu|>thresφ ・・・(2)Here, as a first range in step S5, for example, a threshold thres azimuthal theta theta and sets a threshold thres phi elevation phi, either of the following conditions of Equation (1) or (2) When satisfied, the presentation
| θ a −θ u | > thres θ・ ・ ・ (1)
| φ a − φ u | > thres φ・ ・ ・ (2)
式(1)のthresθは、方位角θの閾値であり、式(2)のthresφは、仰角φの閾値である。閾値thresθ及び閾値thresφとしては、任意の値を設定することができるが、例えば、30度に設定することができる。この30度という数値は、平均的な人間は正面からずれた方向にある物体を見るときに30度以内であれば眼球のみを運動させることで視線方向を移動させるが、それ以上のずれた方向にある物体を見るときには自然と頭部の運動を行うという数値である。 The thres θ in the equation (1) is the threshold value of the azimuth angle θ, and the thres φ in the equation (2) is the threshold value of the elevation angle φ. Arbitrary values can be set for the threshold value thres θ and the threshold value thres φ , but they can be set to, for example, 30 degrees. This value of 30 degrees moves the line of sight by moving only the eyeball if it is within 30 degrees when the average person looks at an object in a direction deviated from the front, but the direction deviated further. It is a numerical value that when you look at an object in, you naturally move your head.
また、酔いを防止するための厳しい判定条件とする場合には、閾値thresθ及び閾値thresφは、1度に設定することができる。これは、ものの細部を注視するときに利用する中心窩と呼ばれる網膜中心部領域の範囲が、平均的な人間では約1度と言われることによる。閾値thresθ及び閾値thresφは、設定画面等を用いてユーザ所望の値に変更することができる。これらの閾値を変更することにより、酔い防止の程度を制御することができる。 Further, the threshold value thres θ and the threshold value thres φ can be set at one time when strict determination conditions are used to prevent sickness. This is because the range of the central region of the retina called the fovea, which is used when gazing at the details of things, is said to be about 1 degree in the average human being. The threshold value thres θ and the threshold value thres φ can be changed to the values desired by the user by using a setting screen or the like. By changing these thresholds, the degree of sickness prevention can be controlled.
上述した判定条件は、主に頭部の向きを動かされたことを判定する条件となるが、アバタが身体全体を大きく移動させられるケースも加味する場合には、式(1)及び式(2)の条件に加えて、次の式(3)の条件を加えることができる。すなわち、式(1)乃至式(3)のいずれかの条件を満たしたとき、アバタ姿勢posaとユーザの実姿勢posuとの姿勢差が第1の範囲以上であると判定する。
Δxau>thresx ・・・(3)The above-mentioned determination conditions are mainly conditions for determining that the direction of the head has been moved, but when the case where the avatar can be moved greatly throughout the body is also taken into consideration, the equations (1) and (2) are taken into consideration. ), The condition of the following equation (3) can be added. That is, when any of the conditions of the equations (1) to (3) is satisfied, it is determined that the posture difference between the avatar posture pos a and the user's actual posture pos u is equal to or greater than the first range.
Δx au> thres x ··· (3 )
式(3)におけるΔxauは、ユーザの実姿勢posuの頭部位置(xu,yu,zu)と、アバタ姿勢posaの頭部位置(xa,ya,za)との差分を表し、Δxauとしては、式(4)の2次元ノルムや式(5)の1次元ノルムを採用することができる。thresxは、Δxauの閾値を表す。
その他のステップS5における判定条件としては、アバタの頭部位置の移動速度や視線方向の角速度を用いてもよい。具体的には、アバタの視線方向(θa,φa)の角速度をΔθ、Δφとし、アバタの頭部位置(xa,ya,za)の時間変化量(移動速度)をvaとして、式(6)乃至式(8)のいずれかの条件を満たしたとき、アバタ姿勢posaとユーザの実姿勢posuとの姿勢差が第1の範囲以上であると判定してもよい。
|Δθa−Δθa|>thresΔθ ・・・(6)
|Δφa−Δφa|>thresΔφ ・・・(7)
va>thresv ・・・(8)As the determination condition in the other step S5, the moving speed of the head position of the avatar or the angular velocity in the line-of-sight direction may be used. Specifically, avatar gaze direction (θ a, φ a) Δθ angular velocities, and [Delta] [phi, the head position of the avatar (x a, y a, z a) time variation of the (movement speed) v a As a result, when any of the conditions of the equations (6) to (8) is satisfied, it may be determined that the posture difference between the avatar posture pos a and the user's actual posture pos u is equal to or greater than the first range. ..
| Δθ a -Δθ a |> thres Δθ ··· (6)
| Δφ a −Δφ a | > thres Δφ・ ・ ・ (7)
v a > thres v ... (8)
さらに、ステップS5では、アバタ姿勢posaとユーザの実姿勢posuとの姿勢差が第1の範囲以上であると判定される現象が1回発生しただけでなく、所定回数以上発生したとき、または、所定時間継続して発生したときに、姿勢差が第1の範囲以上であると判定するようにしてもよい。Further, in step S5, when the phenomenon in which the posture difference between the avatar posture pos a and the user's actual posture pos u is determined to be equal to or greater than the first range occurs not only once but also a predetermined number of times or more occurs. Alternatively, it may be determined that the posture difference is equal to or greater than the first range when the occurrence occurs continuously for a predetermined time.
ステップS5で、アバタ姿勢posaとユーザの実姿勢posuとの姿勢差が第1の範囲以上ではないと判定された場合、処理はステップS3に戻り、上述したステップS3乃至S5の処理が繰り返される。これにより、アバタ姿勢posaとユーザの実姿勢posuとの姿勢差が第1の範囲より小さい場合には、アバタの視点からのアバタ視点画像が提示画像として表示され、提示画像姿勢posv=アバタ姿勢posaとなる。If it is determined in step S5 that the posture difference between the avatar posture pos a and the user's actual posture pos u is not equal to or greater than the first range, the process returns to step S3, and the processes of steps S3 to S5 described above are repeated. Is done. As a result, when the posture difference between the avatar posture pos a and the user's actual posture pos u is smaller than the first range, the avatar viewpoint image from the avatar's viewpoint is displayed as a presentation image, and the presentation image posture pos v = The avatar posture becomes pos a.
一方、ステップS5で、アバタ姿勢posaとユーザの実姿勢posuとの姿勢差が第1の範囲以上であると判定された場合、処理はステップS6に進み、提示画像生成部74は、提示画像として「VR酔い」等の不快感を軽減させるための軽減処理画像を生成し、表示部42に供給して表示させる。On the other hand, if it is determined in step S5 that the posture difference between the avatar posture pos a and the user's actual posture pos u is equal to or greater than the first range, the process proceeds to step S6, and the presentation
提示画像生成部74は、軽減処理画像として、例えば、ユーザ姿勢posuに対応する画像を生成して表示させる。この場合、提示画像姿勢posvは、ユーザ姿勢posuとなる。
posv=(xv,yv,zv,θv,φv)=(xu,yu,zu,θu,φu)Presenting the
pos v = (x v , y v , z v , θ v , φ v ) = (x u , yu , z u , θ u , φ u )
あるいはまた、提示画像生成部74は、軽減処理画像として、例えば、提示画像姿勢posvの頭部位置についてはアバタ姿勢posaの頭部位置とし、提示画像姿勢posvの視線方向についてはユーザ姿勢posuの視線方向とした画像を生成して表示させる。つまり、提示画像姿勢posvは、次のようになる。
posv=(xv,yv,zv,θv,φv)=(xa,ya,za,θu,φu)Alternatively, presenting the
pos v = (x v, y v, z v, θ v, φ v) = (x a, y a, z a, θ u, φ u)
あるいはまた、提示画像生成部74は、軽減処理画像として、例えば、提示画像姿勢posvの頭部位置と方位角θについてはアバタ姿勢posaの頭部位置と方位角θとし、提示画像姿勢posvの仰角φについてはユーザ姿勢posuの仰角φとした画像を生成して表示させる。つまり、提示画像姿勢posvは、次のようになる。
posv=(xv,yv,zv,θv,φv)=(xa,ya,za,θa,φu)
これは、ユーザは、上下方向に意図せず視野を変更されるとより酔いやすいため、この方向にのみ、ユーザの視線方向を採用することを意味する。 Alternatively, the presentation image generation unit 74 sets the head position and azimuth θ of the presentation image posture pos v as the head position and azimuth θ of the avatar posture pos a as the mitigation processing image, and sets the presentation image posture pos v. For the elevation angle φ of v, an image with the elevation angle φ of the user posture pos u is generated and displayed. That is, the presented image posture pos v is as follows.
pos v = (x v, y v, z v, θ v, φ v) = (x a, y a, z a, θ a, φ u)
This means that the user is more likely to get drunk if the field of view is unintentionally changed in the vertical direction, and therefore the user's line-of-sight direction is adopted only in this direction.
反対に、軽減処理画像として、例えば、提示画像姿勢posvの頭部位置と仰角φについてはアバタ姿勢posaの頭部位置と仰角φとし、提示画像姿勢posvの方位角θについてはユーザ姿勢posuの方位角θとした画像を生成して表示させてもよい。つまり、提示画像姿勢posvは、次のようになる。
posv=(xv,yv,zv,θv,φv)=(xa,ya,za,θu,φa)
これは、方位角θにのみ、ユーザの視線方向を採用することを意味する。On the contrary, as the mitigation processed image, for example, the head position and elevation angle φ of the presented image posture pos v are the head position and elevation angle φ of the avatar posture pos a , and the azimuth angle θ of the presented image posture pos v is the user posture. An image with the azimuth θ of pos u may be generated and displayed. That is, the presented image posture pos v is as follows.
pos v = (x v, y v, z v, θ v, φ v) = (x a, y a, z a, θ u, φ a)
This means that the user's line-of-sight direction is adopted only for the azimuth angle θ.
次に、ステップS7において、提示画像生成部74は、アバタ姿勢posaとユーザの実姿勢posuとの姿勢差が、予め決定された第2の範囲以内となったかを判定する。Next, in step S7, the presentation
ステップS7で、アバタ姿勢posaとユーザの実姿勢posuとの姿勢差がまだ第2の範囲以内となっていない、即ち、アバタ姿勢posaとユーザの実姿勢posuとの姿勢差が第2の範囲より大きいと判定された場合、処理はステップS6に戻り、上述した処理が繰り返される。即ち、提示画像として軽減処理画像が継続して生成され、表示部42に表示される。In step S7, the posture difference between the avatar posture pos a and the user's actual posture pos u is not yet within the second range, that is, the posture difference between the avatar posture pos a and the user's actual posture pos u is the first. If it is determined that the range is larger than the range of 2, the process returns to step S6, and the above-mentioned process is repeated. That is, the mitigation processed image is continuously generated as the presented image and displayed on the
一方、ステップS7で、アバタ姿勢posaとユーザの実姿勢posuとの姿勢差が第2の範囲以内となったと判定された場合、処理はステップS8に進み、提示画像生成部74は、軽減処理画像を、アバタ視点画像(アバタ姿勢posaに対応する画像)に徐々に近づくように生成し、表示部42に表示させる。ステップS8の処理後には、提示画像姿勢posv=アバタ姿勢posa=ユーザ姿勢posuとなる。On the other hand, if it is determined in step S7 that the posture difference between the avatar posture pos a and the user's actual posture pos u is within the second range, the process proceeds to step S8, and the presentation
このステップS8の処理である、提示画像(軽減処理画像)をアバタ視点画像に連続的に近づける提示画像姿勢posvの制御には、例えば、単純な線形運動や、ベジエなどの曲線運動、身体モデルに基づく幾何拘束が許す駆動範囲内の運動などによる計算を用いることができる。This is a process of step S8, the control of the presentation image orientation pos v of the presentation image (reduction processing image) avatar viewpoint image close continuously, for example, a simple linear movement, curved motion such as Bezier, body model It is possible to use the calculation based on the motion within the drive range allowed by the geometric constraint based on.
ステップS8の後、処理はステップS3に戻され、上述したステップS3乃至S8が、再び実行される。第1の範囲と第2の範囲の値は、同じ値としてもよいし、異なる値としてもよい。 After step S8, the process is returned to step S3, and steps S3 to S8 described above are executed again. The values in the first range and the second range may be the same value or may be different values.
以上の処理が提示画像生成処理として実行される。 The above processing is executed as the presentation image generation processing.
以上のように、画像システム1による提示画像生成処理では、提示画像生成部74が、アバタ姿勢posaとユーザの実姿勢posuとの姿勢差が所定の閾値(第1の範囲)より小さい場合、アバタの視点によるアバタ視点画像(アバタ姿勢posaに対応する画像)を第1の提示画像として生成し、アバタ姿勢posaとユーザの実姿勢posuとの姿勢差が所定の閾値(第1の範囲)以上であり、アバタ姿勢posaとユーザの実姿勢posuとで一定以上の姿勢差が生じている場合、アバタ視点画像と異なる軽減処理画像を第2の提示画像として生成し、表示部42に表示させる。これにより、「VR酔い」等のユーザの不快感を軽減することができる。As described above, in the presentation image generation process by the
なお、上述したステップS6における軽減処理画像の生成では、仮想世界上のコンテンツ画像を用いて軽減処理画像を生成し、表示したが、例えば、画面全体が黒一色の黒画像(ブラックアウト画面)や、「酔い」を防止するために画面を変更中であることを説明する注意喚起画面など、表示中のコンテンツ画像と異なる画像を表示してもよい。 In the generation of the mitigation processed image in step S6 described above, the mitigation processed image is generated and displayed using the content image on the virtual world. For example, a black image (blackout screen) in which the entire screen is entirely black or , An image different from the displayed content image may be displayed, such as a warning screen explaining that the screen is being changed to prevent "sickness".
この場合、ステップS8で実行される、アバタ視点画像に連続的に近づける処理では、例えば、黒画像とアバタ視点画像をアルファブレンディングするアルファブレンド処理等を用いて、アバタ視点画像に戻すことができる。 In this case, in the process of continuously approaching the avatar viewpoint image, which is executed in step S8, it is possible to return to the avatar viewpoint image by using, for example, an alpha blending process of alpha blending the black image and the avatar viewpoint image.
アバタ視点画像をIa、黒画像をIbとすると、ステップS8における軽減処理画像Iuは、ブレンド率α(0≦α≦1)を用いて以下の式(9)で表される。
Iu=αIa+(1−α)Ib ・・・(9)Assuming that the avatar viewpoint image is I a and the black image is I b , the mitigation processed image I u in step S8 is represented by the following equation (9) using the blend ratio α (0 ≦ α ≦ 1).
I u = αI a + (1-α) I b ... (9)
式(9)のブレンド率αを時間経過とともに0から1に連続的に変化させることで、黒画像から、元のアバタ視点画像に徐々に戻るように制御することができる。 By continuously changing the blend ratio α of the formula (9) from 0 to 1 with the passage of time, it is possible to control the black image to gradually return to the original avatar viewpoint image.
<仮想世界を複数ユーザで共有するコンテンツの例>
上述した例は、1人のユーザが仮想世界を体験する例であったが、複数のユーザで同一の仮想世界を共有して体験する場合もある。<Example of content that shares a virtual world with multiple users>
The above-mentioned example is an example in which one user experiences a virtual world, but there are cases where a plurality of users share and experience the same virtual world.
例えば、図7に示されるように、一方のユーザ121AのHMD11に表示される仮想世界上(提示画像)には、他方のユーザ121Bのアバタ131Bが表示され、他方のユーザ121BのHMD11に表示される仮想世界上(提示画像)には、一方のユーザ121Aのアバタ131Aが表示されている場面があるとする。
For example, as shown in FIG. 7, the avatar 131B of the
ユーザ121Aのアバタ131Aは、ユーザ121Aのセンサ検出結果に基づいて、仮想世界上を動作する。ユーザ121Bのアバタ131Bは、ユーザ121Bのセンサ検出結果に基づいて、仮想世界上を動作する。
The
したがって、基本的には、アバタ131(131A、131B)は、ユーザ121(121A、121B)の動作と同じ動きをするが、コンテンツの設計として、ユーザ121の動作と一致しない動作を行わせることがある。 Therefore, basically, the avatar 131 (131A, 131B) behaves the same as the operation of the user 121 (121A, 121B), but as a content design, the operation that does not match the operation of the user 121 can be performed. be.
例えば、ユーザ121Aのアバタ131Aに、ユーザ121Aがあいさつのお辞儀をさせる場面を考える。
For example, consider a situation in which
実際のユーザ121Aがお辞儀の動作をしてもよいが、ユーザ121Bには実際のユーザ121Aの姿は見えないので、ユーザ121Bが仮想世界上で見ているアバタ131Aにお辞儀動作をさせればよい。そこで、ユーザ121Aは、コントローラ13の操作や音声入力等により、アバタ131Aにお辞儀をさせる動作指示を行う。
The
このような場面においては、上述したような、ユーザ姿勢posuとアバタ姿勢posaが異なる状況が発生するので、図6で説明した提示画像生成処理が同様に適用できる。In such situations, as described above, since the user posture pos u and avatar position pos a different situation occurs, presentation image generation processing described in FIG. 6 can be applied as well.
即ち、ユーザ121Aが操作ボタン等によりお辞儀動作を指示すると、ユーザ121Bが装着しているHMD11の表示部42に、ユーザ121Aのアバタ131Aがお辞儀動作を行う提示画像が表示される。ユーザ121Aのアバタ131Aがお辞儀動作を行うと、ユーザ121Aのアバタ姿勢posaと実姿勢posuとの姿勢差が第1の範囲以上となるので、図6のステップS6の処理として、提示画像生成部74は、軽減処理画像を生成して、ユーザ121Aが装着しているHMD11の表示部42に表示させる。換言すれば、お辞儀動作を行うアバタ131Aの視点によるアバタ視点画像をユーザ121Aが装着しているHMD11の表示部42に表示すると、視界変化が大きく、「酔い」が発生するので、軽減処理画像に切り換えられる。That is, when the
そして、お辞儀動作が終了し、ユーザ121Aのアバタ姿勢posaと実姿勢posuとの姿勢差が第2の範囲以内となると、図6のステップS8の処理として、提示画像のアバタ131Aのアバタ姿勢posaが、ユーザ121Aの実姿勢posuに徐々に近づくように制御される。Then, when the bowing motion is completed and the posture difference between the avatar posture pos a and the actual posture pos u of the
ユーザ121が自分のアバタ131にどのような動作を行わせるかが選択可能な動作コマンドとなっている場合、動作コマンドごとに、軽減処理画像を提示するか否かが予め決定されており、指示された動作コマンドに応じて、予め用意された提示画像を表示させてもよい。これにより、ユーザの動きを検出した検出結果に基づくユーザの実姿勢posuと、アバタ姿勢posaとの姿勢差が生じる場合の動作コマンドに対して、アバタの視点画像と異なる画像を表示することにより、VR酔いを抑制することができる。When the operation command is such that the user 121 can select what kind of operation is to be performed by his / her avatar 131, it is determined in advance whether or not to present the mitigation processing image for each operation command, and an instruction is given. A pre-prepared presentation image may be displayed according to the operation command. That thereby, displays the actual attitude pos u of the user based on the detection result of detecting the motion of the user, with respect to the operation command when the posture difference between avatar position pos a results, a different image and an avatar of the viewpoint image Therefore, VR sickness can be suppressed.
<コンピュータの構成例>
上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているマイクロコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。<Computer configuration example>
The series of processes described above can be executed by hardware or software. When a series of processes are executed by software, the programs constituting the software are installed in the computer. Here, the computer includes a microcomputer embedded in dedicated hardware and, for example, a general-purpose personal computer capable of executing various functions by installing various programs.
図8は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。 FIG. 8 is a block diagram showing an example of hardware configuration of a computer that executes the above-mentioned series of processes programmatically.
コンピュータにおいて、CPU(Central Processing Unit)201,ROM(Read Only Memory)202,RAM(Random Access Memory)203は、バス204により相互に接続されている。
In a computer, a CPU (Central Processing Unit) 201, a ROM (Read Only Memory) 202, and a RAM (Random Access Memory) 203 are connected to each other by a
バス204には、さらに、入出力インタフェース205が接続されている。入出力インタフェース205には、入力部206、出力部207、記憶部208、通信部209、及びドライブ210が接続されている。
An input /
入力部206は、キーボード、マウス、マイクロホンなどよりなる。出力部207は、ディスプレイ、スピーカなどよりなる。記憶部208は、ハードディスクや不揮発性のメモリなどよりなる。通信部209は、ネットワークインタフェースなどよりなる。ドライブ210は、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブル記録媒体211を駆動する。
The
以上のように構成されるコンピュータでは、CPU201が、例えば、記憶部208に記憶されているプログラムを、入出力インタフェース205及びバス204を介して、RAM203にロードして実行することにより、上述した一連の処理が行われる。
In the computer configured as described above, the
コンピュータでは、プログラムは、リムーバブル記録媒体211をドライブ210に装着することにより、入出力インタフェース205を介して、記憶部208にインストールすることができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して、通信部209で受信し、記憶部208にインストールすることができる。その他、プログラムは、ROM202や記憶部208に、あらかじめインストールしておくことができる。
In a computer, the program can be installed in the
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。 The program executed by the computer may be a program in which processing is performed in chronological order according to the order described in the present specification, in parallel, or at a necessary timing such as when a call is made. It may be a program in which processing is performed.
フローチャートに記述されたステップは、記載された順序に沿って時系列的に行われる場合はもちろん、必ずしも時系列的に処理されなくとも、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで実行されてもよい。 The steps described in the flowchart are not necessarily processed in chronological order as well as in chronological order in the order described, but are required timings such as in parallel or when calls are made. May be executed in.
本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。 In the present specification, the system means a set of a plurality of components (devices, modules (parts), etc.), and it does not matter whether or not all the components are in the same housing. Therefore, a plurality of devices housed in separate housings and connected via a network, and a device in which a plurality of modules are housed in one housing are both systems. ..
本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。 The embodiment of the present technology is not limited to the above-described embodiment, and various changes can be made without departing from the gist of the present technology.
上述した実施の形態において、ユーザに提示する提示画像を表示する表示装置として、ヘッドマウントディスプレイ(HMD)の例を説明したが、画像システム1の表示装置としては、ヘッドアップディスプレイ(HUD)でもよいし、ドーム型(半球状)のディスプレイなどでもよい。ユーザの視野を覆うように映像を表示する表示装置であればよい。
In the above-described embodiment, an example of a head-mounted display (HMD) has been described as a display device for displaying a presented image presented to a user, but a head-up display (HUD) may be used as the display device of the
例えば、上述した実施の形態の一部を適宜組み合わせた形態を採用することができる。 For example, a form in which some of the above-described embodiments are appropriately combined can be adopted.
本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。 This technology can be configured as cloud computing in which one function is shared by a plurality of devices via a network and jointly processed.
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。 Further, each step described in the above-mentioned flowchart may be executed by one device or may be shared and executed by a plurality of devices.
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。 Further, when a plurality of processes are included in one step, the plurality of processes included in the one step can be executed by one device or shared by a plurality of devices.
なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、本明細書に記載されたもの以外の効果があってもよい。 It should be noted that the effects described in the present specification are merely exemplary and not limited, and may have effects other than those described in the present specification.
なお、本技術は以下のような構成も取ることができる。
(1)
仮想世界上のユーザに相当するアバタの視点によるアバタ視点画像を、前記ユーザに提示する第1の提示画像として生成し、前記ユーザの動きを検出した検出結果に基づく前記ユーザの実姿勢と、前記アバタの姿勢との姿勢差が生じる場合、前記アバタ視点画像と異なる第2の提示画像を生成する画像生成部
を備える画像処理装置。
(2)
前記姿勢は、頭部位置と視線方向とで定義され、
前記画像生成部は、前記ユーザの実姿勢と前記アバタの姿勢の方位角または仰角の差が第1の閾値以上である場合、前記アバタ視点画像と異なる第2の提示画像を生成する
前記(1)に記載の画像処理装置。
(3)
前記姿勢は、頭部位置と視線方向とで定義され、
前記画像生成部は、前記ユーザの実姿勢と前記アバタの姿勢の方位角若しくは仰角の差が第1の閾値以上であるか、または、前記ユーザの実姿勢と前記アバタの姿勢の頭部位置の差分が第1の閾値以上である場合、前記アバタ視点画像と異なる第2の提示画像を生成する
前記(1)に記載の画像処理装置。
(4)
前記第2の提示画像は、前記ユーザの姿勢に対応する画像である
前記(1)乃至(3)のいずれかに記載の画像処理装置。
(5)
前記第2の提示画像は、前記アバタの姿勢の頭部位置と前記ユーザの姿勢の視線方向に対応する画像である
前記(1)乃至(3)のいずれかに記載の画像処理装置。
(6)
前記第2の提示画像は、前記アバタの姿勢の頭部位置及び方位角と前記ユーザの姿勢の仰角に対応する画像である
前記(1)乃至(3)のいずれかに記載の画像処理装置。
(7)
前記第2の提示画像は、前記アバタの姿勢の頭部位置及び仰角と前記ユーザの姿勢の方位角に対応する画像である
前記(1)乃至(3)のいずれかに記載の画像処理装置。
(8)
前記画像生成部は、前記ユーザの実姿勢と前記アバタの姿勢との姿勢差が第1の閾値以上である場合が所定回数または所定時間継続して発生したとき、前記アバタ視点画像と異なる第2の提示画像を生成する
前記(1)乃至(7)のいずれかに記載の画像処理装置。
(9)
前記画像生成部は、さらに、前記ユーザの実姿勢と前記アバタの姿勢との姿勢差が第2の閾値以内である場合、前記アバタ視点画像に徐々に近づくように、前記第2の提示画像を生成する
前記(1)乃至(8)のいずれかに記載の画像処理装置。
(10)
前記ユーザに相当するアバタの動作を指示する操作部をさらに備え、
前記画像生成部は、前記操作部による指示を受けて前記アバタが動作することによって、前記ユーザの実姿勢と前記アバタの姿勢との姿勢差が生じる場合、前記アバタ視点画像と異なる第2の提示画像を生成する
前記(1)乃至(9)のいずれかに記載の画像処理装置。
(11)
画像処理装置が、
仮想世界上のユーザに相当するアバタの視点によるアバタ視点画像を、前記ユーザに提示する第1の提示画像として生成し、前記ユーザの動きを検出した検出結果に基づく前記ユーザの実姿勢と、前記アバタの姿勢との姿勢差が生じる場合、前記アバタ視点画像と異なる第2の提示画像を生成する
ステップを含む画像処理方法。
(12)
仮想世界上のユーザに相当するアバタの視点によるアバタ視点画像を、前記ユーザに提示する第1の提示画像として生成し、前記ユーザの動きを検出した検出結果に基づく前記ユーザの実姿勢と、前記アバタの姿勢との姿勢差が生じる場合、前記アバタ視点画像と異なる第2の提示画像を生成する画像生成部と、
前記第1の提示画像および前記第2の提示画像を表示する表示部と
を備える画像システム。The present technology can also have the following configurations.
(1)
An avatar viewpoint image from the viewpoint of the avatar corresponding to the user in the virtual world is generated as the first presentation image to be presented to the user, and the actual posture of the user based on the detection result of detecting the movement of the user and the above-mentioned An image processing device including an image generation unit that generates a second presented image different from the avatar viewpoint image when a posture difference from the avatar's posture occurs.
(2)
The posture is defined by the head position and the line-of-sight direction.
The image generation unit generates a second presentation image different from the avatar viewpoint image when the difference between the azimuth angle or the elevation angle between the actual posture of the user and the posture of the avatar is equal to or more than the first threshold value (1). ). The image processing apparatus.
(3)
The posture is defined by the head position and the line-of-sight direction.
In the image generation unit, the difference between the azimuth angle or elevation angle between the user's actual posture and the avatar's posture is equal to or greater than the first threshold value, or the head position between the user's actual posture and the avatar's posture The image processing apparatus according to (1) above, which generates a second presented image different from the avatar viewpoint image when the difference is equal to or greater than the first threshold value.
(4)
The image processing device according to any one of (1) to (3) above, wherein the second presented image is an image corresponding to the posture of the user.
(5)
The image processing device according to any one of (1) to (3) above, wherein the second presented image is an image corresponding to the head position of the posture of the avatar and the line-of-sight direction of the posture of the user.
(6)
The image processing device according to any one of (1) to (3) above, wherein the second presented image is an image corresponding to the head position and azimuth of the avatar's posture and the elevation angle of the user's posture.
(7)
The image processing device according to any one of (1) to (3) above, wherein the second presented image is an image corresponding to the head position and elevation angle of the avatar's posture and the azimuth angle of the user's posture.
(8)
The image generation unit is different from the avatar viewpoint image when the posture difference between the actual posture of the user and the posture of the avatar is equal to or greater than the first threshold value for a predetermined number of times or for a predetermined time. The image processing apparatus according to any one of (1) to (7) above, which generates the presented image of.
(9)
Further, when the posture difference between the actual posture of the user and the posture of the avatar is within the second threshold value, the image generation unit further displays the second presented image so as to gradually approach the avatar viewpoint image. The image processing apparatus according to any one of (1) to (8) above.
(10)
Further provided with an operation unit for instructing the operation of the avatar corresponding to the user,
The image generation unit presents a second image different from the avatar viewpoint image when the posture difference between the actual posture of the user and the posture of the avatar occurs due to the operation of the avatar in response to the instruction from the operation unit. The image processing apparatus according to any one of (1) to (9) above, which generates an image.
(11)
The image processing device
An avatar viewpoint image from the viewpoint of the avatar corresponding to the user in the virtual world is generated as the first presentation image to be presented to the user, and the actual posture of the user based on the detection result of detecting the movement of the user and the above-mentioned An image processing method including a step of generating a second presented image different from the avatar viewpoint image when a posture difference from the avatar's posture occurs.
(12)
An avatar viewpoint image from the viewpoint of the avatar corresponding to the user in the virtual world is generated as the first presentation image to be presented to the user, and the actual posture of the user based on the detection result of detecting the movement of the user and the above-mentioned When there is a posture difference from the avatar's posture, an image generation unit that generates a second presentation image different from the avatar viewpoint image, and an image generation unit.
An image system including the first presented image and a display unit for displaying the second presented image.
1 画像システム, 11 HMD, 12 画像処理装置, 13 コントローラ, 41 センサ, 42 表示部, 62 画像生成部, 71 アバタ動作制御部, 72 ユーザ姿勢検出部, 73 姿勢差算出部, 74 提示画像生成部, 81 操作部, 201 CPU, 202 ROM, 203 RAM, 206 入力部, 207 出力部, 208 記憶部, 209 通信部, 210 ドライブ 1 image system, 11 HMD, 12 image processing device, 13 controller, 41 sensor, 42 display unit, 62 image generation unit, 71 avatar motion control unit, 72 user attitude detection unit, 73 attitude difference calculation unit, 74 presentation image generation unit. , 81 Operation unit, 201 CPU, 202 ROM, 203 RAM, 206 input unit, 207 output unit, 208 storage unit, 209 communication unit, 210 drive
Claims (11)
を備え、
前記姿勢は、頭部位置と、方位角および仰角で表される視線方向とで定義され、
前記第2の提示画像は、前記アバタの姿勢の方位角または仰角の少なくとも一方を前記ユーザの実姿勢の値とした姿勢に対応する画像である
画像処理装置。 An avatar viewpoint image from the viewpoint of the avatar corresponding to the user in the virtual world is generated as the first presentation image to be presented to the user, and the actual posture of the user based on the detection result of detecting the movement of the user and the above-mentioned An image generation unit that generates a second presentation image different from the avatar viewpoint image when there is a posture difference from the avatar's posture.
Equipped with
The posture is defined by the head position and the line-of-sight direction represented by the azimuth and elevation angles.
The second presented image is an image processing device that corresponds to a posture in which at least one of the azimuth or elevation angle of the avatar's posture is set as the value of the actual posture of the user.
請求項1に記載の画像処理装置。 The image generation unit generates a second presentation image different from the avatar viewpoint image when the difference between the azimuth angle or the elevation angle of the user's actual posture and the avatar's posture is equal to or more than the first threshold value. The image processing apparatus according to.
請求項1に記載の画像処理装置。 In the image generation unit, the difference between the azimuth angle or elevation angle between the user's actual posture and the avatar's posture is equal to or greater than the first threshold value, or the head position between the user's actual posture and the avatar's posture The image processing apparatus according to claim 1, wherein when the difference is equal to or greater than the first threshold value, a second presented image different from the avatar viewpoint image is generated.
請求項1に記載の画像処理装置。 The image processing device according to claim 1, wherein the second presented image is an image corresponding to the head position of the posture of the avatar and the line-of-sight direction of the actual posture of the user.
請求項1に記載の画像処理装置。 The image processing device according to claim 1, wherein the second presented image is an image corresponding to the head position and azimuth of the avatar's posture and the elevation angle of the user's actual posture.
請求項1に記載の画像処理装置。 The image processing device according to claim 1, wherein the second presented image is an image corresponding to the head position and elevation angle of the avatar's posture and the azimuth angle of the user's actual posture.
請求項1に記載の画像処理装置。 The image generation unit is different from the avatar viewpoint image when the posture difference between the actual posture of the user and the posture of the avatar is equal to or greater than the first threshold value for a predetermined number of times or for a predetermined time. The image processing apparatus according to claim 1, which generates the presented image of the above.
請求項1に記載の画像処理装置。 Further, when the posture difference between the actual posture of the user and the posture of the avatar is within the second threshold value, the image generation unit further displays the second presented image so as to gradually approach the avatar viewpoint image. The image processing apparatus according to claim 1 to be generated.
前記画像生成部は、前記操作部による指示を受けて前記アバタが動作することによって、前記ユーザの実姿勢と前記アバタの姿勢との姿勢差が生じる場合、前記アバタ視点画像と異なる第2の提示画像を生成する
請求項1に記載の画像処理装置。 Further provided with an operation unit for instructing the operation of the avatar corresponding to the user,
The image generation unit presents a second image different from the avatar viewpoint image when the posture difference between the actual posture of the user and the posture of the avatar occurs due to the operation of the avatar in response to the instruction from the operation unit. The image processing apparatus according to claim 1, which generates an image.
仮想世界上のユーザに相当するアバタの視点によるアバタ視点画像を、前記ユーザに提示する第1の提示画像として生成し、前記ユーザの動きを検出した検出結果に基づく前記ユーザの実姿勢と、前記アバタの姿勢との姿勢差が生じる場合、前記アバタ視点画像と異なる第2の提示画像を生成し、
前記姿勢は、頭部位置と、方位角および仰角で表される視線方向とで定義され、
前記第2の提示画像は、前記アバタの姿勢の方位角または仰角の少なくとも一方を前記ユーザの実姿勢の値とした姿勢に対応する画像である
画像処理方法。 The image processing device
An avatar viewpoint image from the viewpoint of the avatar corresponding to the user in the virtual world is generated as the first presented image to be presented to the user, and the actual posture of the user based on the detection result of detecting the movement of the user and the above-mentioned When there is a posture difference from the avatar's posture, a second presentation image different from the avatar viewpoint image is generated .
The posture is defined by the head position and the line-of-sight direction represented by the azimuth and elevation angles.
The second presented image is an image processing method that corresponds to a posture in which at least one of the azimuth or elevation angle of the avatar's posture is set as the value of the actual posture of the user.
前記第1の提示画像および前記第2の提示画像を表示する表示部と
を備え、
前記姿勢は、頭部位置と、方位角および仰角で表される視線方向とで定義され、
前記第2の提示画像は、前記アバタの姿勢の方位角または仰角の少なくとも一方を前記ユーザの実姿勢の値とした姿勢に対応する画像である
画像システム。 An avatar viewpoint image from the viewpoint of the avatar corresponding to the user in the virtual world is generated as the first presentation image to be presented to the user, and the actual posture of the user based on the detection result of detecting the movement of the user and the above-mentioned When there is a posture difference from the avatar's posture, an image generation unit that generates a second presentation image different from the avatar viewpoint image, and
With a display unit that displays the first presented image and the second presented image
Equipped with
The posture is defined by the head position and the line-of-sight direction represented by the azimuth and elevation angles.
The second presented image is an image system that corresponds to a posture in which at least one of the azimuth or elevation angle of the avatar's posture is the value of the actual posture of the user.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017032021 | 2017-02-23 | ||
JP2017032021 | 2017-02-23 | ||
PCT/JP2018/004567 WO2018155233A1 (en) | 2017-02-23 | 2018-02-09 | Image processing device, image processing method, and image system |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2018155233A1 JPWO2018155233A1 (en) | 2020-01-23 |
JP6984645B2 true JP6984645B2 (en) | 2021-12-22 |
Family
ID=63253685
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019501226A Active JP6984645B2 (en) | 2017-02-23 | 2018-02-09 | Image processing equipment, image processing methods, and image systems |
Country Status (5)
Country | Link |
---|---|
US (1) | US10969861B2 (en) |
EP (1) | EP3588447B1 (en) |
JP (1) | JP6984645B2 (en) |
CN (1) | CN110300994B (en) |
WO (1) | WO2018155233A1 (en) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6590324B2 (en) * | 2017-12-28 | 2019-10-16 | 株式会社コナミデジタルエンタテインメント | Information processing apparatus, information processing apparatus program, information processing system, and display method |
JP6857795B2 (en) | 2017-12-28 | 2021-04-14 | 株式会社コナミデジタルエンタテインメント | Information processing device, information processing device program, information processing system, and display method |
KR102284266B1 (en) * | 2018-12-13 | 2021-08-02 | 한국과학기술원 | Method for vr sickness assessment considering neural mismatch model and the apparatus thereof |
JP7307568B2 (en) * | 2019-03-20 | 2023-07-12 | 任天堂株式会社 | Image display system, image display program, display control device, and image display method |
JP6644928B1 (en) * | 2019-03-29 | 2020-02-12 | 株式会社ドワンゴ | Distribution server, viewer terminal, distributor terminal, distribution method, information processing method and program |
JP6664778B1 (en) * | 2019-03-31 | 2020-03-13 | アヘッド・バイオコンピューティング株式会社 | Information processing apparatus, information processing method, and program |
US11252371B2 (en) * | 2019-12-13 | 2022-02-15 | Korea Advanced Institute Of Science And Technology | Apparatus and method for virtual reality sickness reduction based on virtual reality sickness assessment |
US20240096033A1 (en) * | 2021-10-11 | 2024-03-21 | Meta Platforms Technologies, Llc | Technology for creating, replicating and/or controlling avatars in extended reality |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008117042A (en) * | 2006-11-01 | 2008-05-22 | Nomura Research Institute Ltd | Virtual space providing server, virtual space providing system, and computer program |
JP2010257081A (en) * | 2009-04-22 | 2010-11-11 | Canon Inc | Image procession method and image processing system |
US9245177B2 (en) * | 2010-06-02 | 2016-01-26 | Microsoft Technology Licensing, Llc | Limiting avatar gesture display |
US10310595B2 (en) * | 2014-06-30 | 2019-06-04 | Sony Corporation | Information processing apparatus, information processing method, computer program, and image processing system |
JP2016031439A (en) | 2014-07-28 | 2016-03-07 | ソニー株式会社 | Information processing apparatus and information processing method, computer program, and image display system |
JP6601402B2 (en) | 2014-09-19 | 2019-11-06 | ソニー株式会社 | Control device, control method and program |
JP6421543B2 (en) * | 2014-10-17 | 2018-11-14 | セイコーエプソン株式会社 | Head-mounted display device, method for controlling head-mounted display device, computer program |
JP6298432B2 (en) * | 2015-10-19 | 2018-03-20 | 株式会社コロプラ | Image generation apparatus, image generation method, and image generation program |
WO2017183294A1 (en) * | 2016-04-20 | 2017-10-26 | 株式会社ソニー・インタラクティブエンタテインメント | Actuator device |
JP2017228044A (en) * | 2016-06-21 | 2017-12-28 | 株式会社ソニー・インタラクティブエンタテインメント | Image forming device, image generation system, and image generation method |
-
2018
- 2018-02-09 CN CN201880012363.3A patent/CN110300994B/en active Active
- 2018-02-09 WO PCT/JP2018/004567 patent/WO2018155233A1/en unknown
- 2018-02-09 US US16/480,857 patent/US10969861B2/en active Active
- 2018-02-09 EP EP18756564.3A patent/EP3588447B1/en active Active
- 2018-02-09 JP JP2019501226A patent/JP6984645B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
EP3588447A4 (en) | 2020-02-26 |
WO2018155233A1 (en) | 2018-08-30 |
CN110300994A (en) | 2019-10-01 |
CN110300994B (en) | 2023-07-04 |
US10969861B2 (en) | 2021-04-06 |
EP3588447A1 (en) | 2020-01-01 |
JPWO2018155233A1 (en) | 2020-01-23 |
US20190384382A1 (en) | 2019-12-19 |
EP3588447B1 (en) | 2021-08-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6984645B2 (en) | Image processing equipment, image processing methods, and image systems | |
US10719911B2 (en) | Information processing method and system for executing the information processing method | |
US10496158B2 (en) | Image generation device, image generation method and non-transitory recording medium storing image generation program | |
JP7391939B2 (en) | Prediction and throttle adjustment based on application rendering performance | |
US9779702B2 (en) | Method of controlling head-mounted display system | |
JP6087453B1 (en) | Method and program for providing virtual space | |
US20180011681A1 (en) | Information processing method and system for executing the information processing method | |
WO2017090373A1 (en) | Image display method and program | |
US11835727B2 (en) | Information processing apparatus and information processing method for controlling gesture operations based on postures of user | |
KR20220012990A (en) | Gating Arm Gaze-Driven User Interface Elements for Artificial Reality Systems | |
US11609428B2 (en) | Information processing apparatus and information processing method | |
JP2021531493A (en) | Dynamic panel masking | |
AU2024200190A1 (en) | Presenting avatars in three-dimensional environments | |
KR20220018561A (en) | Artificial Reality Systems with Personal Assistant Element for Gating User Interface Elements | |
KR20220018562A (en) | Gating Edge-Identified Gesture-Driven User Interface Elements for Artificial Reality Systems | |
JP2017138973A (en) | Method and program for providing virtual space | |
KR20230037054A (en) | Systems, methods, and graphical user interfaces for updating a display of a device relative to a user's body | |
JP6212666B1 (en) | Information processing method, program, virtual space distribution system, and apparatus | |
JP2017045296A (en) | Program for controlling head-mounted display system | |
WO2018051964A1 (en) | Video display system, video display method, and video display program | |
US20220114796A1 (en) | Identity-based inclusion/exclusion in a computer-generated reality experience | |
JP7300569B2 (en) | Information processing device, information processing method and program | |
JP2019032715A (en) | Information processing method, device, and program for causing computer to execute the method | |
WO2024071208A1 (en) | Display device, display method, and program | |
JP2017097918A (en) | Image display method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201225 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210824 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211015 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211026 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211108 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6984645 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |