JP6984645B2 - Image processing equipment, image processing methods, and image systems - Google Patents

Image processing equipment, image processing methods, and image systems Download PDF

Info

Publication number
JP6984645B2
JP6984645B2 JP2019501226A JP2019501226A JP6984645B2 JP 6984645 B2 JP6984645 B2 JP 6984645B2 JP 2019501226 A JP2019501226 A JP 2019501226A JP 2019501226 A JP2019501226 A JP 2019501226A JP 6984645 B2 JP6984645 B2 JP 6984645B2
Authority
JP
Japan
Prior art keywords
image
posture
avatar
user
presented
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019501226A
Other languages
Japanese (ja)
Other versions
JPWO2018155233A1 (en
Inventor
雄一 長谷川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JPWO2018155233A1 publication Critical patent/JPWO2018155233A1/en
Application granted granted Critical
Publication of JP6984645B2 publication Critical patent/JP6984645B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5255Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/833Hand-to-hand fighting, e.g. martial arts competition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/64Constructional details of receivers, e.g. cabinets or dust covers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Geometry (AREA)
  • Computing Systems (AREA)
  • Signal Processing (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本技術は、画像処理装置、画像処理方法、および画像システムに関し、特に、「VR酔い」等のユーザの不快感を軽減することができるようにした画像処理装置、画像処理方法、および画像システムに関する。 The present technology relates to an image processing device, an image processing method, and an image system, and more particularly to an image processing device, an image processing method, and an image system capable of reducing user discomfort such as "VR sickness". ..

近年、ヘッドマウントディスプレイやヘッドアップディスプレイは、広視野角な映像提示が可能になってきており、体や頭部の姿勢に応じて、表示させる映像の方向や姿勢を自然に変化・追従(トラッキング)させることにより、より臨場感の高い1人称視点体験が実現可能になってきている。1人称視点は、ビデオゲームの世界では特にファーストパーソン・シューティング(F.P.S.)などと呼ばれ、人気が出始めている。 In recent years, head-mounted displays and head-up displays have become capable of presenting images with a wide viewing angle, and the direction and orientation of the images to be displayed naturally change and follow (tracking) according to the posture of the body or head. ), It has become possible to realize a more realistic first-person perspective experience. The first-person perspective is becoming more and more popular in the world of video games, especially as first-person shooters (F.P.S.).

一方で、ヘッドマウントディスプレイやヘッドアップディスプレイを用いたバーチャルリアリティ(VR)体験をしたときに、一部のユーザが「VR酔い」や「映像酔い」と呼ばれる不快感を催す事例があることが知られている。これは、ユーザが体感したり、経験から予測している感覚と実際の感覚(例えば視覚刺激)にずれがあると発生すると言われている。 On the other hand, it is known that there are cases where some users experience discomfort called "VR sickness" or "video sickness" when experiencing virtual reality (VR) using a head-mounted display or head-up display. Has been done. It is said that this occurs when there is a discrepancy between the sensation that the user experiences or predicts from experience and the actual sensation (for example, visual stimulus).

この「VR酔い」や「映像酔い」の不快感を軽減させるための工夫が提案されている(例えば、特許文献1参照)。 A device for reducing the discomfort of "VR sickness" and "video sickness" has been proposed (see, for example, Patent Document 1).

特開2016−31439号公報Japanese Unexamined Patent Publication No. 2016-31439

しかしながら、このような「VR酔い」等の不快感に対する対策がさらに求められている。 However, there is a further demand for measures against such discomfort such as "VR sickness".

本技術は、このような状況に鑑みてなされたものであり、「VR酔い」等のユーザの不快感を軽減することができるようにするものである。 This technology was made in view of such a situation, and makes it possible to reduce user discomfort such as "VR sickness".

本技術の一側面の画像処理装置は、仮想世界上のユーザに相当するアバタの視点によるアバタ視点画像を、前記ユーザに提示する第1の提示画像として生成し、前記ユーザの動きを検出した検出結果に基づく前記ユーザの実姿勢と、前記アバタの姿勢との姿勢差が生じる場合、前記アバタ視点画像と異なる第2の提示画像を生成する画像生成部を備え、前記姿勢は、頭部位置と、方位角および仰角で表される視線方向とで定義され、前記第2の提示画像は、前記アバタの姿勢の方位角または仰角の少なくとも一方を前記ユーザの実姿勢の値とした姿勢に対応する画像であるThe image processing device of one aspect of the present technology generates an avatar viewpoint image from the viewpoint of the avatar corresponding to the user in the virtual world as the first presented image to be presented to the user, and detects the movement of the user. When there is a posture difference between the actual posture of the user based on the result and the posture of the avatar, an image generation unit that generates a second presented image different from the viewpoint image of the avatar is provided , and the posture is the head position. The second presented image corresponds to a posture in which at least one of the avatar's posture and the elevation is set as the value of the user's actual posture. It is an image .

本技術の一側面の画像処理方法は、画像処理装置が、仮想世界上のユーザに相当するアバタの視点によるアバタ視点画像を、前記ユーザに提示する第1の提示画像として生成し、前記ユーザの動きを検出した検出結果に基づく前記ユーザの実姿勢と、前記アバタの姿勢との姿勢差が生じる場合、前記アバタ視点画像と異なる第2の提示画像を生成し、前記姿勢は、頭部位置と、方位角および仰角で表される視線方向とで定義され、前記第2の提示画像は、前記アバタの姿勢の方位角または仰角の少なくとも一方を前記ユーザの実姿勢の値とした姿勢に対応する画像であるIn the image processing method of one aspect of the present technology, the image processing apparatus generates an avatar viewpoint image from the viewpoint of the avatar corresponding to the user in the virtual world as the first presented image to be presented to the user, and the user's image processing method is performed. When there is a posture difference between the actual posture of the user based on the detection result of detecting the movement and the posture of the avatar, a second presentation image different from the viewpoint image of the avatar is generated, and the posture is the head position. The second presented image corresponds to a posture in which at least one of the avatar's posture and the elevation is set as the value of the user's actual posture. It is an image .

本技術の一側面の画像システムは、仮想世界上のユーザに相当するアバタの視点によるアバタ視点画像を、前記ユーザに提示する第1の提示画像として生成し、前記ユーザの動きを検出した検出結果に基づく前記ユーザの実姿勢と、前記アバタの姿勢との姿勢差が生じる場合、前記アバタ視点画像と異なる第2の提示画像を生成する画像生成部と、前記第1の提示画像および前記第2の提示画像を表示する表示部とを備え、前記姿勢は、頭部位置と、方位角および仰角で表される視線方向とで定義され、前記第2の提示画像は、前記アバタの姿勢の方位角または仰角の少なくとも一方を前記ユーザの実姿勢の値とした姿勢に対応する画像であるThe image system of one aspect of the present technology generates an avatar viewpoint image from the viewpoint of the avatar corresponding to the user in the virtual world as the first presented image to be presented to the user, and the detection result of detecting the movement of the user. When there is a posture difference between the actual posture of the user and the posture of the avatar based on the above, an image generation unit that generates a second presentation image different from the avatar viewpoint image, the first presentation image, and the second presentation image. The posture is defined by a head position and a line-of-sight direction represented by an azimuth angle and an elevation angle, and the second presentation image is the orientation of the avatar's posture. It is an image corresponding to the posture in which at least one of the angle or the elevation angle is set as the value of the actual posture of the user .

本技術の一側面においては、仮想世界上のユーザに相当するアバタの視点によるアバタ視点画像が、前記ユーザに提示する第1の提示画像として生成され、前記ユーザの動きを検出した検出結果に基づく前記ユーザの実姿勢と、前記アバタの姿勢との姿勢差が生じる場合、前記アバタ視点画像と異なる第2の提示画像が生成される。前記姿勢は、頭部位置と、方位角および仰角で表される視線方向とで定義され、前記第2の提示画像は、前記アバタの姿勢の方位角または仰角の少なくとも一方を前記ユーザの実姿勢の値とした姿勢に対応する画像とされる。 In one aspect of the present technology, an avatar viewpoint image from the viewpoint of the avatar corresponding to the user in the virtual world is generated as the first presentation image to be presented to the user, and is based on the detection result of detecting the movement of the user. When there is a posture difference between the actual posture of the user and the posture of the avatar, a second presentation image different from the avatar viewpoint image is generated. The posture is defined by a head position and a line-of-sight direction represented by an azimuth and an elevation angle, and in the second presented image, at least one of the azimuth or elevation angle of the avatar's posture is the actual posture of the user. The image corresponds to the posture set to the value of.

なお、本技術の一側面の画像処理装置は、コンピュータにプログラムを実行させることにより実現することができる。 The image processing device of one aspect of the present technology can be realized by causing a computer to execute a program.

また、本技術の一側面の画像処理装置を実現するために、コンピュータに実行させるプログラムは、伝送媒体を介して伝送することにより、又は、記録媒体に記録して、提供することができる。 Further, in order to realize the image processing apparatus of one aspect of the present technology, a program to be executed by a computer can be provided by transmitting via a transmission medium or by recording on a recording medium.

画像処理装置は、独立した装置であっても良いし、1つの装置を構成している内部ブロックであっても良い。 The image processing device may be an independent device or an internal block constituting one device.

本技術の一側面によれば、「VR酔い」等のユーザの不快感を軽減することができる。 According to one aspect of the present technology, it is possible to reduce user discomfort such as "VR sickness".

なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。 The effects described herein are not necessarily limited, and may be any of the effects described in the present disclosure.

本技術を適用した画像システムの一実施の形態の構成例を示す図である。It is a figure which shows the structural example of one Embodiment of the image system to which this technique is applied. ボクシングゲームのコンテンツ画像の例を示す図である。It is a figure which shows the example of the content image of a boxing game. 図1の画像システムの詳細構成例を示すブロック図である。It is a block diagram which shows the detailed configuration example of the image system of FIG. 仮想世界の座標系について説明する図である。It is a figure explaining the coordinate system of a virtual world. ユーザ姿勢、アバタ姿勢、及び、提示画像姿勢の3つの姿勢について説明する図である。It is a figure explaining three postures of a user posture, an avatar posture, and a presentation image posture. 提示画像生成処理を説明するフローチャートである。It is a flowchart explaining the presentation image generation process. 仮想世界を複数ユーザで共有するコンテンツの例を説明する図である。It is a figure explaining the example of the content which shares a virtual world with a plurality of users. 本技術を適用したコンピュータの一実施の形態の構成例を示すブロック図である。It is a block diagram which shows the structural example of one Embodiment of the computer to which this technique is applied.

以下、本技術を実施するための形態(以下、実施の形態という)について説明する。 Hereinafter, embodiments for implementing the present technology (hereinafter referred to as embodiments) will be described.

<画像システムの構成例>
図1は、本技術を適用した画像システムの一実施の形態の構成例を示している。
<Image system configuration example>
FIG. 1 shows a configuration example of an embodiment of an image system to which the present technology is applied.

図1の画像システム1は、ヘッドマウントディスプレイ11(以下、HMD11と記述する。)、画像処理装置12、および、コントローラ13により構成される。 The image system 1 of FIG. 1 is composed of a head-mounted display 11 (hereinafter referred to as HMD 11), an image processing device 12, and a controller 13.

HMD11は、画像処理装置12で生成された、仮想世界上の画像を表示し、ユーザに提示する。画像処理装置12は、HMD11に表示させる画像を生成し、HMD11に供給する。コントローラ13は、複数の操作ボタン(不図示)を備え、ユーザの操作を受け付けて、ユーザの操作に応じた所定の指示を画像処理装置12に供給する。 The HMD 11 displays an image on the virtual world generated by the image processing device 12 and presents it to the user. The image processing device 12 generates an image to be displayed on the HMD 11 and supplies the image to the HMD 11. The controller 13 includes a plurality of operation buttons (not shown), accepts the user's operation, and supplies a predetermined instruction according to the user's operation to the image processing device 12.

HMD11と画像処理装置12との間、画像処理装置12とコントローラ13との間は、例えばHDMI(登録商標)(High Definition Multimedia Interface)やMHL(Mobile High−definition Link)などの有線ケーブル、あるいは、Wi−Fi(Wireless Fidelity)、wirelessHDやMiracastのような無線通信により接続される。 Between the HMD 11 and the image processing device 12, between the image processing device 12 and the controller 13, for example, a wired cable such as HDMI (registered trademark) (High Definition Multimedia Interface) or MHL (Mobile High-definition Link), or a wired cable, or It is connected by wireless communication such as Wi-Fi (Wiless Fidelity), wirelessHD and Miracast.

本実施の形態では、例えば、画像処理装置12は、図2に示されるような画像を表示させる。図2の画像は、HMD11を装着しているユーザをプレーヤとした1人称視点のボクシングゲーム(コンテンツ)の画像である。HMD11に表示される画像は、2D画像でもよし、ユーザの右眼に見せるための右眼用画像と、ユーザの左眼に見せるための左眼用画像を表示して、立体的に視認させる3D画像でもよい。 In this embodiment, for example, the image processing apparatus 12 displays an image as shown in FIG. The image of FIG. 2 is an image of a boxing game (content) from a first-person viewpoint with a user wearing the HMD 11 as a player. The image displayed on the HMD 11 may be a 2D image, or a 3D image that displays an image for the right eye to be shown to the user's right eye and an image for the left eye to be shown to the user's left eye for three-dimensional visual recognition. It may be an image.

以上のように構成される画像システム1において、画像処理装置12は、ユーザがHMD11に表示された画像を視認して仮想世界を体験している状態において、「VR酔い」等の不快感を軽減させるように画像を生成して、HMD11に表示させる。 In the image system 1 configured as described above, the image processing device 12 reduces discomfort such as "VR sickness" in a state where the user visually recognizes the image displayed on the HMD 11 and experiences the virtual world. An image is generated so as to be displayed on the HMD 11.

なお、HMD11、画像処理装置12、及び、コントローラ13は、必要に応じて合体されて、画像システム1が、1つまたは2つの装置で構成されてもよい。 The HMD 11, the image processing device 12, and the controller 13 may be combined as necessary, and the image system 1 may be composed of one or two devices.

<画像システムの詳細構成例>
図3は、画像システム1の詳細構成例を示すブロック図である。
<Detailed configuration example of image system>
FIG. 3 is a block diagram showing a detailed configuration example of the image system 1.

HMD11は、センサ41と表示部42を備える。 The HMD 11 includes a sensor 41 and a display unit 42.

センサ41は、例えば、ジャイロ・センサ、加速度センサ、地磁気センサなどの1以上のセンサ素子の組み合わせで構成され、ユーザの頭部の位置及び方向を検出する。本実施の形態では、センサ41は、3軸ジャイロ・センサ、3軸加速度センサ、3軸地磁気センサの合計9軸を検出可能なセンサであるとする。センサ41は、検出した結果を画像処理装置12に供給する。 The sensor 41 is composed of a combination of one or more sensor elements such as a gyro sensor, an acceleration sensor, and a geomagnetic sensor, and detects the position and direction of the user's head. In the present embodiment, the sensor 41 is a sensor capable of detecting a total of 9 axes of a 3-axis gyro sensor, a 3-axis acceleration sensor, and a 3-axis geomagnetic sensor. The sensor 41 supplies the detected result to the image processing device 12.

表示部42は、例えば有機EL(Electro−Luminescence)素子や液晶ディスプレイなどで構成され、画像処理装置12から供給される画像信号に基づいて所定の画像を表示する。 The display unit 42 is composed of, for example, an organic EL (Electro-luminescence) element, a liquid crystal display, or the like, and displays a predetermined image based on an image signal supplied from the image processing device 12.

なお、HMD11には、音声出力を行うスピーカや、ユーザの音声を取得するマイクロホンなどがあってもよい。 The HMD 11 may include a speaker that outputs voice, a microphone that acquires the voice of the user, and the like.

コントローラ13は、複数の操作ボタンを含む操作部81を備え、ユーザの操作を受け付けて、ユーザの操作に応じた所定の指示を画像処理装置12に供給する。 The controller 13 includes an operation unit 81 including a plurality of operation buttons, receives the user's operation, and supplies a predetermined instruction according to the user's operation to the image processing device 12.

画像処理装置12は、記憶部61と画像生成部62を少なくとも有し、画像生成部62は、アバタ動作制御部71、ユーザ姿勢検出部72、姿勢差算出部73、及び、提示画像生成部74により構成される。 The image processing device 12 has at least a storage unit 61 and an image generation unit 62, and the image generation unit 62 includes an avatar motion control unit 71, a user posture detection unit 72, a posture difference calculation unit 73, and a presentation image generation unit 74. It is composed of.

記憶部61は、例えば、ハードディスクや不揮発性のメモリなどで構成され、画像処理装置12の動作を制御するプログラムや、HMD11に画像を表示するためのコンテンツ(プログラム)などを記憶する。 The storage unit 61 is composed of, for example, a hard disk, a non-volatile memory, or the like, and stores a program for controlling the operation of the image processing device 12, a content (program) for displaying an image on the HMD 11, and the like.

アバタ動作制御部71は、表示部42に表示される仮想世界上の画像(コンテンツ画像)においてユーザに相当するアバタの動作(姿勢)を制御する。アバタの動作(姿勢)の制御には、ユーザ姿勢検出部72によって検出される、ユーザの実際の姿勢(ユーザの実姿勢)も考慮される。アバタの動作は、例えば、表示部42に表示された仮想世界のコンテンツ画像において、ユーザが選択した動作や、ユーザが行ったアクション等によって変化する。 The avatar motion control unit 71 controls the motion (posture) of the avatar corresponding to the user in the image (content image) on the virtual world displayed on the display unit 42. In controlling the movement (posture) of the avatar, the actual posture of the user (actual posture of the user) detected by the user posture detecting unit 72 is also taken into consideration. The operation of the avatar changes, for example, depending on the operation selected by the user, the action performed by the user, or the like in the content image of the virtual world displayed on the display unit 42.

アバタ動作制御部71は、例えば、図2に示したボクシングゲームの対戦相手のように、表示部42に表示される画像にプレーヤ本人以外のアバタが登場する場合には、他人のアバタの動作(姿勢)も制御する。以下では、ユーザ本人のアバタと、他人のアバタを区別するため、他人のアバタを意味する場合は、他人アバタと称することとして、単にアバタと称する場合には、ユーザ本人のアバタを意味するものとする。 When an avatar other than the player himself / herself appears in the image displayed on the display unit 42, for example, as in the opponent of the boxing game shown in FIG. 2, the avatar motion control unit 71 moves the avatar of another person ( Posture) is also controlled. In the following, in order to distinguish between the avatar of the user himself / herself and the avatar of another person, the avatar of another person is referred to as the avatar of another person, and the avatar of the user himself / herself is referred to as the avatar of the user himself / herself. do.

ユーザ姿勢検出部72は、センサ41から供給される、ユーザの頭部の位置及び方向の検出結果に基づいて、ユーザの実姿勢を検出する。 The user posture detection unit 72 detects the actual posture of the user based on the detection result of the position and direction of the head of the user supplied from the sensor 41.

姿勢差算出部73は、アバタ動作制御部71によって決定されたアバタの姿勢と、ユーザ姿勢検出部72によって検出されたユーザの実姿勢との姿勢差を算出する。 The posture difference calculation unit 73 calculates the posture difference between the posture of the avatar determined by the avatar motion control unit 71 and the actual posture of the user detected by the user posture detection unit 72.

提示画像生成部74は、記憶部61から取得されたコンテンツの画像であって、ユーザに提示する提示画像を生成し、表示部42に供給する。提示画像は、アバタ動作制御部71によって決定されたユーザ本人のアバタと他人アバタの動作、ユーザ姿勢検出部72によって決定されたユーザの実姿勢、及び、姿勢差算出部73によって決定されたアバタの姿勢とユーザの実姿勢の姿勢差とに基づいて生成される。提示画像生成部74は、通常の場面では、ユーザの実姿勢にアバタの姿勢を合わせ、アバタの視点による画像がユーザに提示されるように提示画像(第1の提示画像)を生成するが、所定の条件下においては、「VR酔い」等のユーザの不快感を軽減させるため、アバタ視点の画像とは異なる画像を提示画像(第2の提示画像)として生成し、表示部42に表示させる。 The presentation image generation unit 74 generates a presentation image to be presented to the user, which is an image of the content acquired from the storage unit 61, and supplies the presentation image to the display unit 42. The presented image shows the movements of the user's own avatar and another avatar determined by the avatar motion control unit 71, the actual posture of the user determined by the user posture detection unit 72, and the avatar determined by the posture difference calculation unit 73. It is generated based on the posture difference between the posture and the actual posture of the user. In a normal scene, the presentation image generation unit 74 adjusts the posture of the avatar to the actual posture of the user, and generates a presentation image (first presentation image) so that the image from the viewpoint of the avatar is presented to the user. Under predetermined conditions, in order to reduce user discomfort such as "VR sickness", an image different from the image from the avatar viewpoint is generated as a presentation image (second presentation image) and displayed on the display unit 42. ..

<提示画像の説明>
図4及び図5を参照して、提示画像生成部74によって生成される提示画像についてさらに説明する。
<Explanation of the presented image>
The presentation image generated by the presentation image generation unit 74 will be further described with reference to FIGS. 4 and 5.

初めに、図4を参照して、表示部42に表示されるコンテンツ内の仮想世界と、仮想世界上のアバタの姿勢を表現する座標系について説明する。 First, with reference to FIG. 4, a virtual world in the content displayed on the display unit 42 and a coordinate system expressing the posture of the avatar on the virtual world will be described.

図4のAに示されるように、表示部42に表示されるコンテンツ内の仮想世界をX軸、Y軸、及び、Z軸からなる3次元空間とすると、アバタの姿勢は、3次元位置(x,y,z)と2次元の方向(θ,φ)とからなる5つのパラメータ(x,y,z,θ,φ)で表現することができる。 As shown in A of FIG. 4, assuming that the virtual world in the content displayed on the display unit 42 is a three-dimensional space consisting of the X-axis, the Y-axis, and the Z-axis, the posture of the avatar is a three-dimensional position ( It can be expressed by five parameters (x, y, z, θ, φ) consisting of x, y, z) and a two-dimensional direction (θ, φ).

ここで、3次元位置(x,y,z)は、仮想世界上のアバタの頭部の位置に対応し、2次元の方向(θ,φ)は、仮想世界上のアバタの視線方向(頭部が向く方向)に対応する。方向θは、図4のBに示されるように、XZ平面上の所定の基準軸(図4のBの例ではZ軸)に対して視線方向がなす角であり、いわゆる方位角である。方向φは、図4のCに示されるように、XZ平面に対して視線方向がなすY軸方向の角であり、いわゆる仰角である。したがって、本明細書における姿勢には、仮想世界上の頭部位置だけでなく、視線方向も含まれる。 Here, the three-dimensional position (x, y, z) corresponds to the position of the avatar's head in the virtual world, and the two-dimensional direction (θ, φ) corresponds to the line-of-sight direction (head) of the avatar in the virtual world. Corresponds to the direction in which the part faces). As shown in B of FIG. 4, the direction θ is an angle formed by the line-of-sight direction with respect to a predetermined reference axis (Z axis in the example of B in FIG. 4) on the XZ plane, and is a so-called azimuth angle. As shown in C of FIG. 4, the direction φ is an angle in the Y-axis direction formed by the line-of-sight direction with respect to the XZ plane, and is a so-called elevation angle. Therefore, the posture in the present specification includes not only the head position on the virtual world but also the line-of-sight direction.

表示部42に表示されるコンテンツの仮想世界において、ユーザ姿勢pos、アバタ姿勢pos、及び、提示画像姿勢posの3つの姿勢を以下のように定義する。
ユーザ姿勢pos=(x,y,z,θ,φ
アバタ姿勢pos=(x,y,z,θ,φ
提示画像姿勢pos=(x,y,z,θ,φ
In the virtual world of the content displayed on the display unit 42, the three postures of the user posture pos u , the avatar posture pos a , and the presented image posture pos v are defined as follows.
User posture pos u = (x u , yu , z u , θ u , φ u )
Avatar attitude pos a = (x a, y a, z a, θ a, φ a)
Presented image posture pos v = (x v , y v , z v , θ v , φ v )

ユーザ姿勢posとは、センサ41から供給される検出結果によって決定されるユーザの実姿勢を仮想世界上に投影したものである。アバタ姿勢posとは、アバタの姿勢を仮想世界上の座標で表現したものである。提示画像姿勢posは、表示部42に表示される提示画像に対応する仮想の姿勢である。The user position pos u, is the actual posture of the user as determined by the detection result supplied from the sensor 41 that is projected onto the virtual world. The avatar posture pos a is a representation of the avatar's posture in coordinates on the virtual world. The presented image posture pos v is a virtual posture corresponding to the presented image displayed on the display unit 42.

図5を参照して、ユーザ姿勢pos、アバタ姿勢pos、及び、提示画像姿勢posの3つの姿勢について具体的に説明する。With reference to FIG. 5, the three postures of the user posture pos u , the avatar posture pos a , and the presented image posture pos v will be specifically described.

図2に示したボクシングゲームのコンテンツの例で説明する。 This will be described with an example of the contents of the boxing game shown in FIG.

例えば、通常の場面では、ユーザ姿勢検出部72によって検出されるユーザの実姿勢に応じてアバタの姿勢が制御されるので、アバタ姿勢posとユーザ姿勢posは同一となる。つまり、アバタ姿勢pos=ユーザ姿勢posである。また、表示部42に表示される提示画像は、アバタの視点からの仮想世界の画像となるので、提示画像姿勢pos=アバタ姿勢posである。For example, in a normal situation, the posture of the avatar is controlled according to the actual posture of the user detected by the user posture detecting unit 72, so that the avatar posture pos a and the user posture pos u are the same. That is, the avatar posture pos a = the user posture pos u . Further, since the presented image displayed on the display unit 42 is an image of the virtual world from the viewpoint of the avatar, the presented image posture pos v = avatar posture pos a .

したがって、「VR酔い」を軽減する特別な処理を行わない通常の場面では、
提示画像姿勢pos=アバタ姿勢pos=ユーザ姿勢pos
となる。
Therefore, in normal situations where no special treatment is done to reduce "VR sickness",
Presented image posture pos v = avatar posture pos a = user posture pos u
Will be.

次に、例として、対戦相手のパンチによって、アバタがダウンした(地面に倒れた)場面を想定する。 Next, as an example, assume a scene in which the down feather (falls to the ground) is brought down by the punch of the opponent.

実際のユーザは地面に倒れておらず、図5の姿勢101のように立った姿勢であるとすると、ユーザ姿勢検出部72によって算出されるユーザ姿勢pos=(x,y,z,θ,φ)は姿勢101となる。Assuming that the actual user is not lying on the ground and is in a standing posture as shown in the posture 101 of FIG. 5, the user posture pos u = (x u , yu , z u) calculated by the user posture detecting unit 72. , Θ u , φ u ) is the posture 101.

一方、アバタ動作制御部71によって制御されるアバタ姿勢pos=(x,y,z,θ,φ)は、図5に示される、地面に倒れた姿勢102となる。On the other hand, avatar attitude is controlled by the avatar action control unit 71 pos a = (x a, y a, z a, θ a, φ a) is shown in Figure 5, the orientation 102 fallen on the ground.

通常の場面では、上述したように、アバタの視点からの仮想世界の画像を提示画像とするが、アバタの急激な移動に合わせて提示画像を大きく変化させると、ユーザが「VR酔い」をおこすおそれがある。 In a normal scene, as described above, the image of the virtual world from the viewpoint of the avatar is used as the presentation image, but if the presentation image is changed significantly according to the sudden movement of the avatar, the user causes "VR sickness". There is a risk.

そこで、提示画像生成部74は、アバタ姿勢pos(図5の姿勢102)に対応する画像ではなく、例えば、ユーザの実姿勢(図5の姿勢101)に近い姿勢103に対応する画像111を提示画像として生成し、表示部42に表示させる。提示画像としての画像111は、アバタ姿勢posに対応する画像よりも視界変化が緩やかな画像である。提示画像となる画像111に対応する姿勢103が、提示画像姿勢pos=(x,y,z,θ,φ)である。Therefore, presenting image generator 74, rather than the image corresponding to the avatar position pos a (position 102 in FIG. 5), for example, an image 111 corresponding to the position 103 close to the actual posture of the user (position 101 in FIG. 5) It is generated as a presentation image and displayed on the display unit 42. The image 111 as the presentation image is an image in which the change in the visual field is gradual as compared with the image corresponding to the avatar posture pos a. The posture 103 corresponding to the image 111 to be the presentation image is the presentation image posture pos v = (x v , y v , z v , θ v , φ v ).

図5の例では、VR酔いを軽減する処理が施された場面では、提示画像姿勢posは、アバタ姿勢posとユーザ姿勢posのいずれの姿勢とも異なるが、提示画像は、少なくとも通常場面の提示画像であるアバタ視点画像とは異なる画像であればよい。例えば、提示画像は、ユーザの実姿勢に対応する画像でもよい。In the example of FIG. 5, in the scene where the processing for reducing VR sickness is performed, the presented image posture pos v is different from both the avatar posture pos a and the user posture pos u , but the presented image is at least a normal scene. It may be an image different from the avatar viewpoint image which is the presentation image of. For example, the presented image may be an image corresponding to the actual posture of the user.

<提示画像生成処理>
次に、図6のフローチャートを参照して、画像処理装置12による提示画像生成処理について説明する。この処理は、例えば、HMD11の表示部42に所定のコンテンツ画像を表示させる操作が行われたとき開始される。
<Presentation image generation process>
Next, the presentation image generation process by the image processing device 12 will be described with reference to the flowchart of FIG. This process is started, for example, when an operation of displaying a predetermined content image on the display unit 42 of the HMD 11 is performed.

初めに、ステップS1において、アバタ動作制御部71は、表示部42に表示される仮想世界におけるアバタの動作(アバタ姿勢pos)を決定する。また、仮想世界上にプレーヤ本人以外の他人アバタが登場する場合には、他人アバタの動作(姿勢)も決定する。ステップS1以降、アバタの動作の決定は、コンテンツの内容に従って常時実行される。First, in step S1, the avatar motion control unit 71 determines the avatar motion (avatar posture pos a) in the virtual world displayed on the display unit 42. In addition, when another person's avatar other than the player himself appears in the virtual world, the action (posture) of the other person's avatar is also determined. After step S1, the determination of the action of the avatar is always executed according to the content of the content.

ステップS2において、ユーザ姿勢検出部72は、センサ41から供給された、ユーザの頭部の位置及び方向を示すセンサ検出結果に基づいて、ユーザの実姿勢posを検出する。センサ検出結果に基づくユーザの実姿勢posの検出も、これ以降常時実行される。検出されたユーザの実姿勢posはアバタ動作制御部71に供給され、アバタの動作(姿勢)が、ユーザの動作に合わせられる。In step S2, the user posture detector 72, supplied from the sensor 41, based on the sensor detection result indicating the position and direction of the user's head, to detect the actual attitude pos u users. Detection of the actual attitude pos u of the user based on the sensor detection results is performed at all times subsequent. Actual attitude pos u of the detected user is supplied to the avatar action control unit 71, avatar behavior (posture) are according to the user's operation.

ステップS3において、提示画像生成部74は、アバタの視点からの画像であるアバタ視点画像を提示画像として生成し、HMD11の表示部42に供給して表示させる。ここでの提示画像姿勢posは、アバタ姿勢pos及びユーザ姿勢posと等しくなる(提示画像姿勢pos=アバタ姿勢pos=ユーザ姿勢pos)。In step S3, the presentation image generation unit 74 generates an avatar viewpoint image, which is an image from the viewpoint of the avatar, as a presentation image, and supplies the image to the display unit 42 of the HMD 11 for display. The presented image posture pos v here is equal to the avatar posture pos a and the user posture pos u (presented image posture pos v = avatar posture pos a = user posture pos u ).

ステップS4において、姿勢差算出部73は、アバタ動作制御部71によって決定されたアバタ姿勢posと、ユーザ姿勢検出部72によって検出されたユーザの実姿勢posとの姿勢差を算出して、提示画像生成部74に供給する。In step S4, the posture difference calculation unit 73 calculates the posture difference between the avatar posture pos a determined by the avatar motion control unit 71 and the user's actual posture pos u detected by the user posture detection unit 72. It is supplied to the presentation image generation unit 74.

ステップS5において、提示画像生成部74は、アバタ姿勢posとユーザの実姿勢posとの姿勢差が、予め決定された第1の範囲以上であるかを判定する。In step S5, the presentation image generation unit 74 determines whether the posture difference between the avatar posture pos a and the user's actual posture pos u is equal to or greater than a predetermined first range.

ここで、ステップS5における第1の範囲として、例えば、方位角θの閾値thresθおよび、仰角φの閾値thresφを設定し、以下の式(1)または式(2)のどちらかの条件を満たしたとき、提示画像生成部74は、アバタ姿勢posとユーザの実姿勢posとの姿勢差が第1の範囲以上であると判定することができる。式(1)及び式(2)の|d|は、dの絶対値を表す。
|θ−θ|>thresθ ・・・(1)
|φ−φ|>thresφ ・・・(2)
Here, as a first range in step S5, for example, a threshold thres azimuthal theta theta and sets a threshold thres phi elevation phi, either of the following conditions of Equation (1) or (2) When satisfied, the presentation image generation unit 74 can determine that the posture difference between the avatar posture pos a and the user's actual posture pos u is equal to or greater than the first range. | D | in the equations (1) and (2) represents the absolute value of d.
| θ a −θ u | > thres θ・ ・ ・ (1)
| φ a − φ u | > thres φ・ ・ ・ (2)

式(1)のthresθは、方位角θの閾値であり、式(2)のthresφは、仰角φの閾値である。閾値thresθ及び閾値thresφとしては、任意の値を設定することができるが、例えば、30度に設定することができる。この30度という数値は、平均的な人間は正面からずれた方向にある物体を見るときに30度以内であれば眼球のみを運動させることで視線方向を移動させるが、それ以上のずれた方向にある物体を見るときには自然と頭部の運動を行うという数値である。 The thres θ in the equation (1) is the threshold value of the azimuth angle θ, and the thres φ in the equation (2) is the threshold value of the elevation angle φ. Arbitrary values can be set for the threshold value thres θ and the threshold value thres φ , but they can be set to, for example, 30 degrees. This value of 30 degrees moves the line of sight by moving only the eyeball if it is within 30 degrees when the average person looks at an object in a direction deviated from the front, but the direction deviated further. It is a numerical value that when you look at an object in, you naturally move your head.

また、酔いを防止するための厳しい判定条件とする場合には、閾値thresθ及び閾値thresφは、1度に設定することができる。これは、ものの細部を注視するときに利用する中心窩と呼ばれる網膜中心部領域の範囲が、平均的な人間では約1度と言われることによる。閾値thresθ及び閾値thresφは、設定画面等を用いてユーザ所望の値に変更することができる。これらの閾値を変更することにより、酔い防止の程度を制御することができる。 Further, the threshold value thres θ and the threshold value thres φ can be set at one time when strict determination conditions are used to prevent sickness. This is because the range of the central region of the retina called the fovea, which is used when gazing at the details of things, is said to be about 1 degree in the average human being. The threshold value thres θ and the threshold value thres φ can be changed to the values desired by the user by using a setting screen or the like. By changing these thresholds, the degree of sickness prevention can be controlled.

上述した判定条件は、主に頭部の向きを動かされたことを判定する条件となるが、アバタが身体全体を大きく移動させられるケースも加味する場合には、式(1)及び式(2)の条件に加えて、次の式(3)の条件を加えることができる。すなわち、式(1)乃至式(3)のいずれかの条件を満たしたとき、アバタ姿勢posとユーザの実姿勢posとの姿勢差が第1の範囲以上であると判定する。
Δxau>thres ・・・(3)
The above-mentioned determination conditions are mainly conditions for determining that the direction of the head has been moved, but when the case where the avatar can be moved greatly throughout the body is also taken into consideration, the equations (1) and (2) are taken into consideration. ), The condition of the following equation (3) can be added. That is, when any of the conditions of the equations (1) to (3) is satisfied, it is determined that the posture difference between the avatar posture pos a and the user's actual posture pos u is equal to or greater than the first range.
Δx au> thres x ··· (3 )

式(3)におけるΔxauは、ユーザの実姿勢posの頭部位置(x,y,z)と、アバタ姿勢posの頭部位置(x,y,z)との差分を表し、Δxauとしては、式(4)の2次元ノルムや式(5)の1次元ノルムを採用することができる。thresは、Δxauの閾値を表す。

Figure 0006984645
[Delta] x au in the formula (3), the head position of the actual attitude pos u user (x u, y u, z u) and the head position of the avatar position pos a (x a, y a , z a) and It represents the difference, as the [Delta] x au, can employ one-dimensional norm of the two-dimensional norm and of formula (4) (5). thres x represents the threshold of Δx au.
Figure 0006984645

その他のステップS5における判定条件としては、アバタの頭部位置の移動速度や視線方向の角速度を用いてもよい。具体的には、アバタの視線方向(θ,φ)の角速度をΔθ、Δφとし、アバタの頭部位置(x,y,z)の時間変化量(移動速度)をvとして、式(6)乃至式(8)のいずれかの条件を満たしたとき、アバタ姿勢posとユーザの実姿勢posとの姿勢差が第1の範囲以上であると判定してもよい。
|Δθ−Δθ|>thresΔθ ・・・(6)
|Δφ−Δφ|>thresΔφ ・・・(7)
>thres ・・・(8)
As the determination condition in the other step S5, the moving speed of the head position of the avatar or the angular velocity in the line-of-sight direction may be used. Specifically, avatar gaze direction (θ a, φ a) Δθ angular velocities, and [Delta] [phi, the head position of the avatar (x a, y a, z a) time variation of the (movement speed) v a As a result, when any of the conditions of the equations (6) to (8) is satisfied, it may be determined that the posture difference between the avatar posture pos a and the user's actual posture pos u is equal to or greater than the first range. ..
| Δθ a -Δθ a |> thres Δθ ··· (6)
| Δφ a −Δφ a | > thres Δφ・ ・ ・ (7)
v a > thres v ... (8)

さらに、ステップS5では、アバタ姿勢posとユーザの実姿勢posとの姿勢差が第1の範囲以上であると判定される現象が1回発生しただけでなく、所定回数以上発生したとき、または、所定時間継続して発生したときに、姿勢差が第1の範囲以上であると判定するようにしてもよい。Further, in step S5, when the phenomenon in which the posture difference between the avatar posture pos a and the user's actual posture pos u is determined to be equal to or greater than the first range occurs not only once but also a predetermined number of times or more occurs. Alternatively, it may be determined that the posture difference is equal to or greater than the first range when the occurrence occurs continuously for a predetermined time.

ステップS5で、アバタ姿勢posとユーザの実姿勢posとの姿勢差が第1の範囲以上ではないと判定された場合、処理はステップS3に戻り、上述したステップS3乃至S5の処理が繰り返される。これにより、アバタ姿勢posとユーザの実姿勢posとの姿勢差が第1の範囲より小さい場合には、アバタの視点からのアバタ視点画像が提示画像として表示され、提示画像姿勢pos=アバタ姿勢posとなる。If it is determined in step S5 that the posture difference between the avatar posture pos a and the user's actual posture pos u is not equal to or greater than the first range, the process returns to step S3, and the processes of steps S3 to S5 described above are repeated. Is done. As a result, when the posture difference between the avatar posture pos a and the user's actual posture pos u is smaller than the first range, the avatar viewpoint image from the avatar's viewpoint is displayed as a presentation image, and the presentation image posture pos v = The avatar posture becomes pos a.

一方、ステップS5で、アバタ姿勢posとユーザの実姿勢posとの姿勢差が第1の範囲以上であると判定された場合、処理はステップS6に進み、提示画像生成部74は、提示画像として「VR酔い」等の不快感を軽減させるための軽減処理画像を生成し、表示部42に供給して表示させる。On the other hand, if it is determined in step S5 that the posture difference between the avatar posture pos a and the user's actual posture pos u is equal to or greater than the first range, the process proceeds to step S6, and the presentation image generation unit 74 presents. As an image, a mitigation processing image for reducing discomfort such as "VR sickness" is generated, and is supplied to the display unit 42 for display.

提示画像生成部74は、軽減処理画像として、例えば、ユーザ姿勢posに対応する画像を生成して表示させる。この場合、提示画像姿勢posは、ユーザ姿勢posとなる。
pos=(x,y,z,θ,φ)=(x,y,z,θ,φ
Presenting the image generator 74, as reduction process image, for example, generated and displayed an image corresponding to the user position pos u. In this case, the presented image posture pos v becomes the user posture pos u .
pos v = (x v , y v , z v , θ v , φ v ) = (x u , yu , z u , θ u , φ u )

あるいはまた、提示画像生成部74は、軽減処理画像として、例えば、提示画像姿勢posの頭部位置についてはアバタ姿勢posの頭部位置とし、提示画像姿勢posの視線方向についてはユーザ姿勢posの視線方向とした画像を生成して表示させる。つまり、提示画像姿勢posは、次のようになる。
pos=(x,y,z,θ,φ)=(x,y,z,θ,φ
Alternatively, presenting the image generator 74, as reduction process image, for example, a presentation image orientation pos v the head position of the avatar attitude pos a for the head position of the presentation image orientation pos v user orientation for viewing direction of An image with the line-of-sight direction of pos u is generated and displayed. That is, the presented image posture pos v is as follows.
pos v = (x v, y v, z v, θ v, φ v) = (x a, y a, z a, θ u, φ u)

あるいはまた、提示画像生成部74は、軽減処理画像として、例えば、提示画像姿勢posの頭部位置と方位角θについてはアバタ姿勢posの頭部位置と方位角θとし、提示画像姿勢posの仰角φについてはユーザ姿勢posの仰角φとした画像を生成して表示させる。つまり、提示画像姿勢posは、次のようになる。
pos=(x,y,z,θ,φ)=(x,y,z,θ,φ
これは、ユーザは、上下方向に意図せず視野を変更されるとより酔いやすいため、この方向にのみ、ユーザの視線方向を採用することを意味する。
Alternatively, the presentation image generation unit 74 sets the head position and azimuth θ of the presentation image posture pos v as the head position and azimuth θ of the avatar posture pos a as the mitigation processing image, and sets the presentation image posture pos v. For the elevation angle φ of v, an image with the elevation angle φ of the user posture pos u is generated and displayed. That is, the presented image posture pos v is as follows.
pos v = (x v, y v, z v, θ v, φ v) = (x a, y a, z a, θ a, φ u)
This means that the user is more likely to get drunk if the field of view is unintentionally changed in the vertical direction, and therefore the user's line-of-sight direction is adopted only in this direction.

反対に、軽減処理画像として、例えば、提示画像姿勢posの頭部位置と仰角φについてはアバタ姿勢posの頭部位置と仰角φとし、提示画像姿勢posの方位角θについてはユーザ姿勢posの方位角θとした画像を生成して表示させてもよい。つまり、提示画像姿勢posは、次のようになる。
pos=(x,y,z,θ,φ)=(x,y,z,θ,φ
これは、方位角θにのみ、ユーザの視線方向を採用することを意味する。
On the contrary, as the mitigation processed image, for example, the head position and elevation angle φ of the presented image posture pos v are the head position and elevation angle φ of the avatar posture pos a , and the azimuth angle θ of the presented image posture pos v is the user posture. An image with the azimuth θ of pos u may be generated and displayed. That is, the presented image posture pos v is as follows.
pos v = (x v, y v, z v, θ v, φ v) = (x a, y a, z a, θ u, φ a)
This means that the user's line-of-sight direction is adopted only for the azimuth angle θ.

次に、ステップS7において、提示画像生成部74は、アバタ姿勢posとユーザの実姿勢posとの姿勢差が、予め決定された第2の範囲以内となったかを判定する。Next, in step S7, the presentation image generation unit 74 determines whether the posture difference between the avatar posture pos a and the user's actual posture pos u is within a predetermined second range.

ステップS7で、アバタ姿勢posとユーザの実姿勢posとの姿勢差がまだ第2の範囲以内となっていない、即ち、アバタ姿勢posとユーザの実姿勢posとの姿勢差が第2の範囲より大きいと判定された場合、処理はステップS6に戻り、上述した処理が繰り返される。即ち、提示画像として軽減処理画像が継続して生成され、表示部42に表示される。In step S7, the posture difference between the avatar posture pos a and the user's actual posture pos u is not yet within the second range, that is, the posture difference between the avatar posture pos a and the user's actual posture pos u is the first. If it is determined that the range is larger than the range of 2, the process returns to step S6, and the above-mentioned process is repeated. That is, the mitigation processed image is continuously generated as the presented image and displayed on the display unit 42.

一方、ステップS7で、アバタ姿勢posとユーザの実姿勢posとの姿勢差が第2の範囲以内となったと判定された場合、処理はステップS8に進み、提示画像生成部74は、軽減処理画像を、アバタ視点画像(アバタ姿勢posに対応する画像)に徐々に近づくように生成し、表示部42に表示させる。ステップS8の処理後には、提示画像姿勢pos=アバタ姿勢pos=ユーザ姿勢posとなる。On the other hand, if it is determined in step S7 that the posture difference between the avatar posture pos a and the user's actual posture pos u is within the second range, the process proceeds to step S8, and the presentation image generation unit 74 is reduced. the processed image generated so as to gradually approach the avatar viewpoint image (the image corresponding to the avatar position pos a), on the display unit 42. After the processing of step S8, the presented image posture pos v = avatar posture pos a = user posture pos u .

このステップS8の処理である、提示画像(軽減処理画像)をアバタ視点画像に連続的に近づける提示画像姿勢posの制御には、例えば、単純な線形運動や、ベジエなどの曲線運動、身体モデルに基づく幾何拘束が許す駆動範囲内の運動などによる計算を用いることができる。This is a process of step S8, the control of the presentation image orientation pos v of the presentation image (reduction processing image) avatar viewpoint image close continuously, for example, a simple linear movement, curved motion such as Bezier, body model It is possible to use the calculation based on the motion within the drive range allowed by the geometric constraint based on.

ステップS8の後、処理はステップS3に戻され、上述したステップS3乃至S8が、再び実行される。第1の範囲と第2の範囲の値は、同じ値としてもよいし、異なる値としてもよい。 After step S8, the process is returned to step S3, and steps S3 to S8 described above are executed again. The values in the first range and the second range may be the same value or may be different values.

以上の処理が提示画像生成処理として実行される。 The above processing is executed as the presentation image generation processing.

以上のように、画像システム1による提示画像生成処理では、提示画像生成部74が、アバタ姿勢posとユーザの実姿勢posとの姿勢差が所定の閾値(第1の範囲)より小さい場合、アバタの視点によるアバタ視点画像(アバタ姿勢posに対応する画像)を第1の提示画像として生成し、アバタ姿勢posとユーザの実姿勢posとの姿勢差が所定の閾値(第1の範囲)以上であり、アバタ姿勢posとユーザの実姿勢posとで一定以上の姿勢差が生じている場合、アバタ視点画像と異なる軽減処理画像を第2の提示画像として生成し、表示部42に表示させる。これにより、「VR酔い」等のユーザの不快感を軽減することができる。As described above, in the presentation image generation process by the image system 1, when the presentation image generation unit 74 has a posture difference between the avatar posture pos a and the user's actual posture pos u smaller than a predetermined threshold value (first range). , An avatar viewpoint image ( an image corresponding to the avatar posture pos a ) from the viewpoint of the avatar is generated as the first presentation image, and the posture difference between the avatar posture pos a and the user's actual posture pos u is a predetermined threshold value (first). If there is a posture difference of a certain amount or more between the avatar posture pos a and the user's actual posture pos u , a mitigation processed image different from the avatar viewpoint image is generated and displayed as the second presentation image. It is displayed on the unit 42. This makes it possible to reduce user discomfort such as "VR sickness".

なお、上述したステップS6における軽減処理画像の生成では、仮想世界上のコンテンツ画像を用いて軽減処理画像を生成し、表示したが、例えば、画面全体が黒一色の黒画像(ブラックアウト画面)や、「酔い」を防止するために画面を変更中であることを説明する注意喚起画面など、表示中のコンテンツ画像と異なる画像を表示してもよい。 In the generation of the mitigation processed image in step S6 described above, the mitigation processed image is generated and displayed using the content image on the virtual world. For example, a black image (blackout screen) in which the entire screen is entirely black or , An image different from the displayed content image may be displayed, such as a warning screen explaining that the screen is being changed to prevent "sickness".

この場合、ステップS8で実行される、アバタ視点画像に連続的に近づける処理では、例えば、黒画像とアバタ視点画像をアルファブレンディングするアルファブレンド処理等を用いて、アバタ視点画像に戻すことができる。 In this case, in the process of continuously approaching the avatar viewpoint image, which is executed in step S8, it is possible to return to the avatar viewpoint image by using, for example, an alpha blending process of alpha blending the black image and the avatar viewpoint image.

アバタ視点画像をI、黒画像をIとすると、ステップS8における軽減処理画像Iは、ブレンド率α(0≦α≦1)を用いて以下の式(9)で表される。
=αI+(1−α)I ・・・(9)
Assuming that the avatar viewpoint image is I a and the black image is I b , the mitigation processed image I u in step S8 is represented by the following equation (9) using the blend ratio α (0 ≦ α ≦ 1).
I u = αI a + (1-α) I b ... (9)

式(9)のブレンド率αを時間経過とともに0から1に連続的に変化させることで、黒画像から、元のアバタ視点画像に徐々に戻るように制御することができる。 By continuously changing the blend ratio α of the formula (9) from 0 to 1 with the passage of time, it is possible to control the black image to gradually return to the original avatar viewpoint image.

<仮想世界を複数ユーザで共有するコンテンツの例>
上述した例は、1人のユーザが仮想世界を体験する例であったが、複数のユーザで同一の仮想世界を共有して体験する場合もある。
<Example of content that shares a virtual world with multiple users>
The above-mentioned example is an example in which one user experiences a virtual world, but there are cases where a plurality of users share and experience the same virtual world.

例えば、図7に示されるように、一方のユーザ121AのHMD11に表示される仮想世界上(提示画像)には、他方のユーザ121Bのアバタ131Bが表示され、他方のユーザ121BのHMD11に表示される仮想世界上(提示画像)には、一方のユーザ121Aのアバタ131Aが表示されている場面があるとする。 For example, as shown in FIG. 7, the avatar 131B of the other user 121B is displayed on the virtual world (presentation image) displayed on the HMD 11 of one user 121A, and is displayed on the HMD 11 of the other user 121B. It is assumed that there is a scene in which the avatar 131A of one user 121A is displayed on the virtual world (presentation image).

ユーザ121Aのアバタ131Aは、ユーザ121Aのセンサ検出結果に基づいて、仮想世界上を動作する。ユーザ121Bのアバタ131Bは、ユーザ121Bのセンサ検出結果に基づいて、仮想世界上を動作する。 The avatar 131A of the user 121A operates in the virtual world based on the sensor detection result of the user 121A. The avatar 131B of the user 121B operates in the virtual world based on the sensor detection result of the user 121B.

したがって、基本的には、アバタ131(131A、131B)は、ユーザ121(121A、121B)の動作と同じ動きをするが、コンテンツの設計として、ユーザ121の動作と一致しない動作を行わせることがある。 Therefore, basically, the avatar 131 (131A, 131B) behaves the same as the operation of the user 121 (121A, 121B), but as a content design, the operation that does not match the operation of the user 121 can be performed. be.

例えば、ユーザ121Aのアバタ131Aに、ユーザ121Aがあいさつのお辞儀をさせる場面を考える。 For example, consider a situation in which user 121A bows a greeting to avatar 131A of user 121A.

実際のユーザ121Aがお辞儀の動作をしてもよいが、ユーザ121Bには実際のユーザ121Aの姿は見えないので、ユーザ121Bが仮想世界上で見ているアバタ131Aにお辞儀動作をさせればよい。そこで、ユーザ121Aは、コントローラ13の操作や音声入力等により、アバタ131Aにお辞儀をさせる動作指示を行う。 The actual user 121A may bow, but since the actual user 121A cannot be seen by the user 121B, the avatar 131A seen by the user 121B in the virtual world may be bowed. .. Therefore, the user 121A gives an operation instruction to make the avatar 131A bow by operating the controller 13, voice input, or the like.

このような場面においては、上述したような、ユーザ姿勢posとアバタ姿勢posが異なる状況が発生するので、図6で説明した提示画像生成処理が同様に適用できる。In such situations, as described above, since the user posture pos u and avatar position pos a different situation occurs, presentation image generation processing described in FIG. 6 can be applied as well.

即ち、ユーザ121Aが操作ボタン等によりお辞儀動作を指示すると、ユーザ121Bが装着しているHMD11の表示部42に、ユーザ121Aのアバタ131Aがお辞儀動作を行う提示画像が表示される。ユーザ121Aのアバタ131Aがお辞儀動作を行うと、ユーザ121Aのアバタ姿勢posと実姿勢posとの姿勢差が第1の範囲以上となるので、図6のステップS6の処理として、提示画像生成部74は、軽減処理画像を生成して、ユーザ121Aが装着しているHMD11の表示部42に表示させる。換言すれば、お辞儀動作を行うアバタ131Aの視点によるアバタ視点画像をユーザ121Aが装着しているHMD11の表示部42に表示すると、視界変化が大きく、「酔い」が発生するので、軽減処理画像に切り換えられる。That is, when the user 121A instructs the bowing operation by the operation button or the like, the presentation image in which the avatar 131A of the user 121A performs the bowing operation is displayed on the display unit 42 of the HMD 11 worn by the user 121B. When the avatar 131A of the user 121A performs a bowing motion, the posture difference between the avatar posture pos a and the actual posture pos u of the user 121A becomes equal to or more than the first range. The unit 74 generates a mitigation processed image and displays it on the display unit 42 of the HMD 11 worn by the user 121A. In other words, when the avatar viewpoint image from the viewpoint of the avatar 131A performing the bowing motion is displayed on the display unit 42 of the HMD 11 worn by the user 121A, the visual field change is large and "sickness" occurs. Can be switched.

そして、お辞儀動作が終了し、ユーザ121Aのアバタ姿勢posと実姿勢posとの姿勢差が第2の範囲以内となると、図6のステップS8の処理として、提示画像のアバタ131Aのアバタ姿勢posが、ユーザ121Aの実姿勢posに徐々に近づくように制御される。Then, when the bowing motion is completed and the posture difference between the avatar posture pos a and the actual posture pos u of the user 121A is within the second range, the avatar posture of the avatar 131A of the presented image is processed as the process of step S8 in FIG. The pos a is controlled so as to gradually approach the actual posture pos u of the user 121A.

ユーザ121が自分のアバタ131にどのような動作を行わせるかが選択可能な動作コマンドとなっている場合、動作コマンドごとに、軽減処理画像を提示するか否かが予め決定されており、指示された動作コマンドに応じて、予め用意された提示画像を表示させてもよい。これにより、ユーザの動きを検出した検出結果に基づくユーザの実姿勢posと、アバタ姿勢posとの姿勢差が生じる場合の動作コマンドに対して、アバタの視点画像と異なる画像を表示することにより、VR酔いを抑制することができる。When the operation command is such that the user 121 can select what kind of operation is to be performed by his / her avatar 131, it is determined in advance whether or not to present the mitigation processing image for each operation command, and an instruction is given. A pre-prepared presentation image may be displayed according to the operation command. That thereby, displays the actual attitude pos u of the user based on the detection result of detecting the motion of the user, with respect to the operation command when the posture difference between avatar position pos a results, a different image and an avatar of the viewpoint image Therefore, VR sickness can be suppressed.

<コンピュータの構成例>
上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているマイクロコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
<Computer configuration example>
The series of processes described above can be executed by hardware or software. When a series of processes are executed by software, the programs constituting the software are installed in the computer. Here, the computer includes a microcomputer embedded in dedicated hardware and, for example, a general-purpose personal computer capable of executing various functions by installing various programs.

図8は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。 FIG. 8 is a block diagram showing an example of hardware configuration of a computer that executes the above-mentioned series of processes programmatically.

コンピュータにおいて、CPU(Central Processing Unit)201,ROM(Read Only Memory)202,RAM(Random Access Memory)203は、バス204により相互に接続されている。 In a computer, a CPU (Central Processing Unit) 201, a ROM (Read Only Memory) 202, and a RAM (Random Access Memory) 203 are connected to each other by a bus 204.

バス204には、さらに、入出力インタフェース205が接続されている。入出力インタフェース205には、入力部206、出力部207、記憶部208、通信部209、及びドライブ210が接続されている。 An input / output interface 205 is further connected to the bus 204. An input unit 206, an output unit 207, a storage unit 208, a communication unit 209, and a drive 210 are connected to the input / output interface 205.

入力部206は、キーボード、マウス、マイクロホンなどよりなる。出力部207は、ディスプレイ、スピーカなどよりなる。記憶部208は、ハードディスクや不揮発性のメモリなどよりなる。通信部209は、ネットワークインタフェースなどよりなる。ドライブ210は、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブル記録媒体211を駆動する。 The input unit 206 includes a keyboard, a mouse, a microphone, and the like. The output unit 207 includes a display, a speaker, and the like. The storage unit 208 includes a hard disk, a non-volatile memory, and the like. The communication unit 209 includes a network interface and the like. The drive 210 drives a removable recording medium 211 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory.

以上のように構成されるコンピュータでは、CPU201が、例えば、記憶部208に記憶されているプログラムを、入出力インタフェース205及びバス204を介して、RAM203にロードして実行することにより、上述した一連の処理が行われる。 In the computer configured as described above, the CPU 201 loads the program stored in the storage unit 208 into the RAM 203 via the input / output interface 205 and the bus 204 and executes the above-mentioned series. Is processed.

コンピュータでは、プログラムは、リムーバブル記録媒体211をドライブ210に装着することにより、入出力インタフェース205を介して、記憶部208にインストールすることができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して、通信部209で受信し、記憶部208にインストールすることができる。その他、プログラムは、ROM202や記憶部208に、あらかじめインストールしておくことができる。 In a computer, the program can be installed in the storage unit 208 via the input / output interface 205 by mounting the removable recording medium 211 in the drive 210. The program can also be received by the communication unit 209 and installed in the storage unit 208 via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting. In addition, the program can be pre-installed in the ROM 202 or the storage unit 208.

なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。 The program executed by the computer may be a program in which processing is performed in chronological order according to the order described in the present specification, in parallel, or at a necessary timing such as when a call is made. It may be a program in which processing is performed.

フローチャートに記述されたステップは、記載された順序に沿って時系列的に行われる場合はもちろん、必ずしも時系列的に処理されなくとも、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで実行されてもよい。 The steps described in the flowchart are not necessarily processed in chronological order as well as in chronological order in the order described, but are required timings such as in parallel or when calls are made. May be executed in.

本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。 In the present specification, the system means a set of a plurality of components (devices, modules (parts), etc.), and it does not matter whether or not all the components are in the same housing. Therefore, a plurality of devices housed in separate housings and connected via a network, and a device in which a plurality of modules are housed in one housing are both systems. ..

本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。 The embodiment of the present technology is not limited to the above-described embodiment, and various changes can be made without departing from the gist of the present technology.

上述した実施の形態において、ユーザに提示する提示画像を表示する表示装置として、ヘッドマウントディスプレイ(HMD)の例を説明したが、画像システム1の表示装置としては、ヘッドアップディスプレイ(HUD)でもよいし、ドーム型(半球状)のディスプレイなどでもよい。ユーザの視野を覆うように映像を表示する表示装置であればよい。 In the above-described embodiment, an example of a head-mounted display (HMD) has been described as a display device for displaying a presented image presented to a user, but a head-up display (HUD) may be used as the display device of the image system 1. However, a dome-shaped (hemispherical) display or the like may be used. Any display device that displays an image so as to cover the user's field of view may be used.

例えば、上述した実施の形態の一部を適宜組み合わせた形態を採用することができる。 For example, a form in which some of the above-described embodiments are appropriately combined can be adopted.

本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。 This technology can be configured as cloud computing in which one function is shared by a plurality of devices via a network and jointly processed.

また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。 Further, each step described in the above-mentioned flowchart may be executed by one device or may be shared and executed by a plurality of devices.

さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。 Further, when a plurality of processes are included in one step, the plurality of processes included in the one step can be executed by one device or shared by a plurality of devices.

なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、本明細書に記載されたもの以外の効果があってもよい。 It should be noted that the effects described in the present specification are merely exemplary and not limited, and may have effects other than those described in the present specification.

なお、本技術は以下のような構成も取ることができる。
(1)
仮想世界上のユーザに相当するアバタの視点によるアバタ視点画像を、前記ユーザに提示する第1の提示画像として生成し、前記ユーザの動きを検出した検出結果に基づく前記ユーザの実姿勢と、前記アバタの姿勢との姿勢差が生じる場合、前記アバタ視点画像と異なる第2の提示画像を生成する画像生成部
を備える画像処理装置。
(2)
前記姿勢は、頭部位置と視線方向とで定義され、
前記画像生成部は、前記ユーザの実姿勢と前記アバタの姿勢の方位角または仰角の差が第1の閾値以上である場合、前記アバタ視点画像と異なる第2の提示画像を生成する
前記(1)に記載の画像処理装置。
(3)
前記姿勢は、頭部位置と視線方向とで定義され、
前記画像生成部は、前記ユーザの実姿勢と前記アバタの姿勢の方位角若しくは仰角の差が第1の閾値以上であるか、または、前記ユーザの実姿勢と前記アバタの姿勢の頭部位置の差分が第1の閾値以上である場合、前記アバタ視点画像と異なる第2の提示画像を生成する
前記(1)に記載の画像処理装置。
(4)
前記第2の提示画像は、前記ユーザの姿勢に対応する画像である
前記(1)乃至(3)のいずれかに記載の画像処理装置。
(5)
前記第2の提示画像は、前記アバタの姿勢の頭部位置と前記ユーザの姿勢の視線方向に対応する画像である
前記(1)乃至(3)のいずれかに記載の画像処理装置。
(6)
前記第2の提示画像は、前記アバタの姿勢の頭部位置及び方位角と前記ユーザの姿勢の仰角に対応する画像である
前記(1)乃至(3)のいずれかに記載の画像処理装置。
(7)
前記第2の提示画像は、前記アバタの姿勢の頭部位置及び仰角と前記ユーザの姿勢の方位角に対応する画像である
前記(1)乃至(3)のいずれかに記載の画像処理装置。
(8)
前記画像生成部は、前記ユーザの実姿勢と前記アバタの姿勢との姿勢差が第1の閾値以上である場合が所定回数または所定時間継続して発生したとき、前記アバタ視点画像と異なる第2の提示画像を生成する
前記(1)乃至(7)のいずれかに記載の画像処理装置。
(9)
前記画像生成部は、さらに、前記ユーザの実姿勢と前記アバタの姿勢との姿勢差が第2の閾値以内である場合、前記アバタ視点画像に徐々に近づくように、前記第2の提示画像を生成する
前記(1)乃至(8)のいずれかに記載の画像処理装置。
(10)
前記ユーザに相当するアバタの動作を指示する操作部をさらに備え、
前記画像生成部は、前記操作部による指示を受けて前記アバタが動作することによって、前記ユーザの実姿勢と前記アバタの姿勢との姿勢差が生じる場合、前記アバタ視点画像と異なる第2の提示画像を生成する
前記(1)乃至(9)のいずれかに記載の画像処理装置。
(11)
画像処理装置が、
仮想世界上のユーザに相当するアバタの視点によるアバタ視点画像を、前記ユーザに提示する第1の提示画像として生成し、前記ユーザの動きを検出した検出結果に基づく前記ユーザの実姿勢と、前記アバタの姿勢との姿勢差が生じる場合、前記アバタ視点画像と異なる第2の提示画像を生成する
ステップを含む画像処理方法。
(12)
仮想世界上のユーザに相当するアバタの視点によるアバタ視点画像を、前記ユーザに提示する第1の提示画像として生成し、前記ユーザの動きを検出した検出結果に基づく前記ユーザの実姿勢と、前記アバタの姿勢との姿勢差が生じる場合、前記アバタ視点画像と異なる第2の提示画像を生成する画像生成部と、
前記第1の提示画像および前記第2の提示画像を表示する表示部と
を備える画像システム。
The present technology can also have the following configurations.
(1)
An avatar viewpoint image from the viewpoint of the avatar corresponding to the user in the virtual world is generated as the first presentation image to be presented to the user, and the actual posture of the user based on the detection result of detecting the movement of the user and the above-mentioned An image processing device including an image generation unit that generates a second presented image different from the avatar viewpoint image when a posture difference from the avatar's posture occurs.
(2)
The posture is defined by the head position and the line-of-sight direction.
The image generation unit generates a second presentation image different from the avatar viewpoint image when the difference between the azimuth angle or the elevation angle between the actual posture of the user and the posture of the avatar is equal to or more than the first threshold value (1). ). The image processing apparatus.
(3)
The posture is defined by the head position and the line-of-sight direction.
In the image generation unit, the difference between the azimuth angle or elevation angle between the user's actual posture and the avatar's posture is equal to or greater than the first threshold value, or the head position between the user's actual posture and the avatar's posture The image processing apparatus according to (1) above, which generates a second presented image different from the avatar viewpoint image when the difference is equal to or greater than the first threshold value.
(4)
The image processing device according to any one of (1) to (3) above, wherein the second presented image is an image corresponding to the posture of the user.
(5)
The image processing device according to any one of (1) to (3) above, wherein the second presented image is an image corresponding to the head position of the posture of the avatar and the line-of-sight direction of the posture of the user.
(6)
The image processing device according to any one of (1) to (3) above, wherein the second presented image is an image corresponding to the head position and azimuth of the avatar's posture and the elevation angle of the user's posture.
(7)
The image processing device according to any one of (1) to (3) above, wherein the second presented image is an image corresponding to the head position and elevation angle of the avatar's posture and the azimuth angle of the user's posture.
(8)
The image generation unit is different from the avatar viewpoint image when the posture difference between the actual posture of the user and the posture of the avatar is equal to or greater than the first threshold value for a predetermined number of times or for a predetermined time. The image processing apparatus according to any one of (1) to (7) above, which generates the presented image of.
(9)
Further, when the posture difference between the actual posture of the user and the posture of the avatar is within the second threshold value, the image generation unit further displays the second presented image so as to gradually approach the avatar viewpoint image. The image processing apparatus according to any one of (1) to (8) above.
(10)
Further provided with an operation unit for instructing the operation of the avatar corresponding to the user,
The image generation unit presents a second image different from the avatar viewpoint image when the posture difference between the actual posture of the user and the posture of the avatar occurs due to the operation of the avatar in response to the instruction from the operation unit. The image processing apparatus according to any one of (1) to (9) above, which generates an image.
(11)
The image processing device
An avatar viewpoint image from the viewpoint of the avatar corresponding to the user in the virtual world is generated as the first presentation image to be presented to the user, and the actual posture of the user based on the detection result of detecting the movement of the user and the above-mentioned An image processing method including a step of generating a second presented image different from the avatar viewpoint image when a posture difference from the avatar's posture occurs.
(12)
An avatar viewpoint image from the viewpoint of the avatar corresponding to the user in the virtual world is generated as the first presentation image to be presented to the user, and the actual posture of the user based on the detection result of detecting the movement of the user and the above-mentioned When there is a posture difference from the avatar's posture, an image generation unit that generates a second presentation image different from the avatar viewpoint image, and an image generation unit.
An image system including the first presented image and a display unit for displaying the second presented image.

1 画像システム, 11 HMD, 12 画像処理装置, 13 コントローラ, 41 センサ, 42 表示部, 62 画像生成部, 71 アバタ動作制御部, 72 ユーザ姿勢検出部, 73 姿勢差算出部, 74 提示画像生成部, 81 操作部, 201 CPU, 202 ROM, 203 RAM, 206 入力部, 207 出力部, 208 記憶部, 209 通信部, 210 ドライブ 1 image system, 11 HMD, 12 image processing device, 13 controller, 41 sensor, 42 display unit, 62 image generation unit, 71 avatar motion control unit, 72 user attitude detection unit, 73 attitude difference calculation unit, 74 presentation image generation unit. , 81 Operation unit, 201 CPU, 202 ROM, 203 RAM, 206 input unit, 207 output unit, 208 storage unit, 209 communication unit, 210 drive

Claims (11)

仮想世界上のユーザに相当するアバタの視点によるアバタ視点画像を、前記ユーザに提示する第1の提示画像として生成し、前記ユーザの動きを検出した検出結果に基づく前記ユーザの実姿勢と、前記アバタの姿勢との姿勢差が生じる場合、前記アバタ視点画像と異なる第2の提示画像を生成する画像生成部
を備え、
前記姿勢は、頭部位置と、方位角および仰角で表される視線方向とで定義され、
前記第2の提示画像は、前記アバタの姿勢の方位角または仰角の少なくとも一方を前記ユーザの実姿勢の値とした姿勢に対応する画像である
画像処理装置。
An avatar viewpoint image from the viewpoint of the avatar corresponding to the user in the virtual world is generated as the first presentation image to be presented to the user, and the actual posture of the user based on the detection result of detecting the movement of the user and the above-mentioned An image generation unit that generates a second presentation image different from the avatar viewpoint image when there is a posture difference from the avatar's posture.
Equipped with
The posture is defined by the head position and the line-of-sight direction represented by the azimuth and elevation angles.
The second presented image is an image processing device that corresponds to a posture in which at least one of the azimuth or elevation angle of the avatar's posture is set as the value of the actual posture of the user.
前記画像生成部は、前記ユーザの実姿勢と前記アバタの姿勢の方位角または仰角の差が第1の閾値以上である場合、前記アバタ視点画像と異なる第2の提示画像を生成する
請求項1に記載の画像処理装置。
The image generation unit generates a second presentation image different from the avatar viewpoint image when the difference between the azimuth angle or the elevation angle of the user's actual posture and the avatar's posture is equal to or more than the first threshold value. The image processing apparatus according to.
前記画像生成部は、前記ユーザの実姿勢と前記アバタの姿勢の方位角若しくは仰角の差が第1の閾値以上であるか、または、前記ユーザの実姿勢と前記アバタの姿勢の頭部位置の差分が第1の閾値以上である場合、前記アバタ視点画像と異なる第2の提示画像を生成する
請求項1に記載の画像処理装置。
In the image generation unit, the difference between the azimuth angle or elevation angle between the user's actual posture and the avatar's posture is equal to or greater than the first threshold value, or the head position between the user's actual posture and the avatar's posture The image processing apparatus according to claim 1, wherein when the difference is equal to or greater than the first threshold value, a second presented image different from the avatar viewpoint image is generated.
前記第2の提示画像は、前記アバタの姿勢の頭部位置と前記ユーザの姿勢の視線方向に対応する画像である
請求項1に記載の画像処理装置。
The image processing device according to claim 1, wherein the second presented image is an image corresponding to the head position of the posture of the avatar and the line-of-sight direction of the actual posture of the user.
前記第2の提示画像は、前記アバタの姿勢の頭部位置及び方位角と前記ユーザの姿勢の仰角に対応する画像である
請求項1に記載の画像処理装置。
The image processing device according to claim 1, wherein the second presented image is an image corresponding to the head position and azimuth of the avatar's posture and the elevation angle of the user's actual posture.
前記第2の提示画像は、前記アバタの姿勢の頭部位置及び仰角と前記ユーザの姿勢の方位角に対応する画像である
請求項1に記載の画像処理装置。
The image processing device according to claim 1, wherein the second presented image is an image corresponding to the head position and elevation angle of the avatar's posture and the azimuth angle of the user's actual posture.
前記画像生成部は、前記ユーザの実姿勢と前記アバタの姿勢との姿勢差が第1の閾値以上である場合が所定回数または所定時間継続して発生したとき、前記アバタ視点画像と異なる第2の提示画像を生成する
請求項1に記載の画像処理装置。
The image generation unit is different from the avatar viewpoint image when the posture difference between the actual posture of the user and the posture of the avatar is equal to or greater than the first threshold value for a predetermined number of times or for a predetermined time. The image processing apparatus according to claim 1, which generates the presented image of the above.
前記画像生成部は、さらに、前記ユーザの実姿勢と前記アバタの姿勢との姿勢差が第2の閾値以内である場合、前記アバタ視点画像に徐々に近づくように、前記第2の提示画像を生成する
請求項1に記載の画像処理装置。
Further, when the posture difference between the actual posture of the user and the posture of the avatar is within the second threshold value, the image generation unit further displays the second presented image so as to gradually approach the avatar viewpoint image. The image processing apparatus according to claim 1 to be generated.
前記ユーザに相当するアバタの動作を指示する操作部をさらに備え、
前記画像生成部は、前記操作部による指示を受けて前記アバタが動作することによって、前記ユーザの実姿勢と前記アバタの姿勢との姿勢差が生じる場合、前記アバタ視点画像と異なる第2の提示画像を生成する
請求項1に記載の画像処理装置。
Further provided with an operation unit for instructing the operation of the avatar corresponding to the user,
The image generation unit presents a second image different from the avatar viewpoint image when the posture difference between the actual posture of the user and the posture of the avatar occurs due to the operation of the avatar in response to the instruction from the operation unit. The image processing apparatus according to claim 1, which generates an image.
画像処理装置が、
仮想世界上のユーザに相当するアバタの視点によるアバタ視点画像を、前記ユーザに提示する第1の提示画像として生成し、前記ユーザの動きを検出した検出結果に基づく前記ユーザの実姿勢と、前記アバタの姿勢との姿勢差が生じる場合、前記アバタ視点画像と異なる第2の提示画像を生成し、
前記姿勢は、頭部位置と、方位角および仰角で表される視線方向とで定義され、
前記第2の提示画像は、前記アバタの姿勢の方位角または仰角の少なくとも一方を前記ユーザの実姿勢の値とした姿勢に対応する画像である
画像処理方法。
The image processing device
An avatar viewpoint image from the viewpoint of the avatar corresponding to the user in the virtual world is generated as the first presented image to be presented to the user, and the actual posture of the user based on the detection result of detecting the movement of the user and the above-mentioned When there is a posture difference from the avatar's posture, a second presentation image different from the avatar viewpoint image is generated .
The posture is defined by the head position and the line-of-sight direction represented by the azimuth and elevation angles.
The second presented image is an image processing method that corresponds to a posture in which at least one of the azimuth or elevation angle of the avatar's posture is set as the value of the actual posture of the user.
仮想世界上のユーザに相当するアバタの視点によるアバタ視点画像を、前記ユーザに提示する第1の提示画像として生成し、前記ユーザの動きを検出した検出結果に基づく前記ユーザの実姿勢と、前記アバタの姿勢との姿勢差が生じる場合、前記アバタ視点画像と異なる第2の提示画像を生成する画像生成部と、
前記第1の提示画像および前記第2の提示画像を表示する表示部と
を備え、
前記姿勢は、頭部位置と、方位角および仰角で表される視線方向とで定義され、
前記第2の提示画像は、前記アバタの姿勢の方位角または仰角の少なくとも一方を前記ユーザの実姿勢の値とした姿勢に対応する画像である
画像システム。
An avatar viewpoint image from the viewpoint of the avatar corresponding to the user in the virtual world is generated as the first presentation image to be presented to the user, and the actual posture of the user based on the detection result of detecting the movement of the user and the above-mentioned When there is a posture difference from the avatar's posture, an image generation unit that generates a second presentation image different from the avatar viewpoint image, and
With a display unit that displays the first presented image and the second presented image
Equipped with
The posture is defined by the head position and the line-of-sight direction represented by the azimuth and elevation angles.
The second presented image is an image system that corresponds to a posture in which at least one of the azimuth or elevation angle of the avatar's posture is the value of the actual posture of the user.
JP2019501226A 2017-02-23 2018-02-09 Image processing equipment, image processing methods, and image systems Active JP6984645B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017032021 2017-02-23
JP2017032021 2017-02-23
PCT/JP2018/004567 WO2018155233A1 (en) 2017-02-23 2018-02-09 Image processing device, image processing method, and image system

Publications (2)

Publication Number Publication Date
JPWO2018155233A1 JPWO2018155233A1 (en) 2020-01-23
JP6984645B2 true JP6984645B2 (en) 2021-12-22

Family

ID=63253685

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019501226A Active JP6984645B2 (en) 2017-02-23 2018-02-09 Image processing equipment, image processing methods, and image systems

Country Status (5)

Country Link
US (1) US10969861B2 (en)
EP (1) EP3588447B1 (en)
JP (1) JP6984645B2 (en)
CN (1) CN110300994B (en)
WO (1) WO2018155233A1 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6590324B2 (en) * 2017-12-28 2019-10-16 株式会社コナミデジタルエンタテインメント Information processing apparatus, information processing apparatus program, information processing system, and display method
JP6857795B2 (en) 2017-12-28 2021-04-14 株式会社コナミデジタルエンタテインメント Information processing device, information processing device program, information processing system, and display method
KR102284266B1 (en) * 2018-12-13 2021-08-02 한국과학기술원 Method for vr sickness assessment considering neural mismatch model and the apparatus thereof
JP7307568B2 (en) * 2019-03-20 2023-07-12 任天堂株式会社 Image display system, image display program, display control device, and image display method
JP6644928B1 (en) * 2019-03-29 2020-02-12 株式会社ドワンゴ Distribution server, viewer terminal, distributor terminal, distribution method, information processing method and program
JP6664778B1 (en) * 2019-03-31 2020-03-13 アヘッド・バイオコンピューティング株式会社 Information processing apparatus, information processing method, and program
US11252371B2 (en) * 2019-12-13 2022-02-15 Korea Advanced Institute Of Science And Technology Apparatus and method for virtual reality sickness reduction based on virtual reality sickness assessment
US20240096033A1 (en) * 2021-10-11 2024-03-21 Meta Platforms Technologies, Llc Technology for creating, replicating and/or controlling avatars in extended reality

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008117042A (en) * 2006-11-01 2008-05-22 Nomura Research Institute Ltd Virtual space providing server, virtual space providing system, and computer program
JP2010257081A (en) * 2009-04-22 2010-11-11 Canon Inc Image procession method and image processing system
US9245177B2 (en) * 2010-06-02 2016-01-26 Microsoft Technology Licensing, Llc Limiting avatar gesture display
US10310595B2 (en) * 2014-06-30 2019-06-04 Sony Corporation Information processing apparatus, information processing method, computer program, and image processing system
JP2016031439A (en) 2014-07-28 2016-03-07 ソニー株式会社 Information processing apparatus and information processing method, computer program, and image display system
JP6601402B2 (en) 2014-09-19 2019-11-06 ソニー株式会社 Control device, control method and program
JP6421543B2 (en) * 2014-10-17 2018-11-14 セイコーエプソン株式会社 Head-mounted display device, method for controlling head-mounted display device, computer program
JP6298432B2 (en) * 2015-10-19 2018-03-20 株式会社コロプラ Image generation apparatus, image generation method, and image generation program
WO2017183294A1 (en) * 2016-04-20 2017-10-26 株式会社ソニー・インタラクティブエンタテインメント Actuator device
JP2017228044A (en) * 2016-06-21 2017-12-28 株式会社ソニー・インタラクティブエンタテインメント Image forming device, image generation system, and image generation method

Also Published As

Publication number Publication date
EP3588447A4 (en) 2020-02-26
WO2018155233A1 (en) 2018-08-30
CN110300994A (en) 2019-10-01
CN110300994B (en) 2023-07-04
US10969861B2 (en) 2021-04-06
EP3588447A1 (en) 2020-01-01
JPWO2018155233A1 (en) 2020-01-23
US20190384382A1 (en) 2019-12-19
EP3588447B1 (en) 2021-08-11

Similar Documents

Publication Publication Date Title
JP6984645B2 (en) Image processing equipment, image processing methods, and image systems
US10719911B2 (en) Information processing method and system for executing the information processing method
US10496158B2 (en) Image generation device, image generation method and non-transitory recording medium storing image generation program
JP7391939B2 (en) Prediction and throttle adjustment based on application rendering performance
US9779702B2 (en) Method of controlling head-mounted display system
JP6087453B1 (en) Method and program for providing virtual space
US20180011681A1 (en) Information processing method and system for executing the information processing method
WO2017090373A1 (en) Image display method and program
US11835727B2 (en) Information processing apparatus and information processing method for controlling gesture operations based on postures of user
KR20220012990A (en) Gating Arm Gaze-Driven User Interface Elements for Artificial Reality Systems
US11609428B2 (en) Information processing apparatus and information processing method
JP2021531493A (en) Dynamic panel masking
AU2024200190A1 (en) Presenting avatars in three-dimensional environments
KR20220018561A (en) Artificial Reality Systems with Personal Assistant Element for Gating User Interface Elements
KR20220018562A (en) Gating Edge-Identified Gesture-Driven User Interface Elements for Artificial Reality Systems
JP2017138973A (en) Method and program for providing virtual space
KR20230037054A (en) Systems, methods, and graphical user interfaces for updating a display of a device relative to a user&#39;s body
JP6212666B1 (en) Information processing method, program, virtual space distribution system, and apparatus
JP2017045296A (en) Program for controlling head-mounted display system
WO2018051964A1 (en) Video display system, video display method, and video display program
US20220114796A1 (en) Identity-based inclusion/exclusion in a computer-generated reality experience
JP7300569B2 (en) Information processing device, information processing method and program
JP2019032715A (en) Information processing method, device, and program for causing computer to execute the method
WO2024071208A1 (en) Display device, display method, and program
JP2017097918A (en) Image display method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210824

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211015

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211026

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211108

R151 Written notification of patent or utility model registration

Ref document number: 6984645

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151