JPWO2018155233A1 - 画像処理装置、画像処理方法、および画像システム - Google Patents

画像処理装置、画像処理方法、および画像システム Download PDF

Info

Publication number
JPWO2018155233A1
JPWO2018155233A1 JP2019501226A JP2019501226A JPWO2018155233A1 JP WO2018155233 A1 JPWO2018155233 A1 JP WO2018155233A1 JP 2019501226 A JP2019501226 A JP 2019501226A JP 2019501226 A JP2019501226 A JP 2019501226A JP WO2018155233 A1 JPWO2018155233 A1 JP WO2018155233A1
Authority
JP
Japan
Prior art keywords
image
posture
avatar
user
presentation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019501226A
Other languages
English (en)
Other versions
JP6984645B2 (ja
Inventor
長谷川 雄一
雄一 長谷川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2018155233A1 publication Critical patent/JPWO2018155233A1/ja
Application granted granted Critical
Publication of JP6984645B2 publication Critical patent/JP6984645B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5255Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/833Hand-to-hand fighting, e.g. martial arts competition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/64Constructional details of receivers, e.g. cabinets or dust covers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Geometry (AREA)
  • Computing Systems (AREA)
  • Signal Processing (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本技術は、「VR酔い」等のユーザの不快感を軽減することができるようにする画像処理装置、画像処理方法、および画像システムに関する。画像処理装置は、仮想世界上のユーザに相当するアバタの視点によるアバタ視点画像を、ユーザに提示する第1の提示画像として生成し、ユーザの動きを検出した検出結果に基づくユーザの実姿勢と、アバタの姿勢との姿勢差が生じる場合、アバタ視点画像と異なる第2の提示画像を生成する画像生成部を備える。本技術は、例えば、ヘッドマウントディスプレイに表示させる画像を生成する画像処理装置等に適用できる。

Description

本技術は、画像処理装置、画像処理方法、および画像システムに関し、特に、「VR酔い」等のユーザの不快感を軽減することができるようにした画像処理装置、画像処理方法、および画像システムに関する。
近年、ヘッドマウントディスプレイやヘッドアップディスプレイは、広視野角な映像提示が可能になってきており、体や頭部の姿勢に応じて、表示させる映像の方向や姿勢を自然に変化・追従(トラッキング)させることにより、より臨場感の高い1人称視点体験が実現可能になってきている。1人称視点は、ビデオゲームの世界では特にファーストパーソン・シューティング(F.P.S.)などと呼ばれ、人気が出始めている。
一方で、ヘッドマウントディスプレイやヘッドアップディスプレイを用いたバーチャルリアリティ(VR)体験をしたときに、一部のユーザが「VR酔い」や「映像酔い」と呼ばれる不快感を催す事例があることが知られている。これは、ユーザが体感したり、経験から予測している感覚と実際の感覚(例えば視覚刺激)にずれがあると発生すると言われている。
この「VR酔い」や「映像酔い」の不快感を軽減させるための工夫が提案されている(例えば、特許文献1参照)。
特開2016−31439号公報
しかしながら、このような「VR酔い」等の不快感に対する対策がさらに求められている。
本技術は、このような状況に鑑みてなされたものであり、「VR酔い」等のユーザの不快感を軽減することができるようにするものである。
本技術の一側面の画像処理装置は、仮想世界上のユーザに相当するアバタの視点によるアバタ視点画像を、前記ユーザに提示する第1の提示画像として生成し、前記ユーザの動きを検出した検出結果に基づく前記ユーザの実姿勢と、前記アバタの姿勢との姿勢差が生じる場合、前記アバタ視点画像と異なる第2の提示画像を生成する画像生成部を備える。
本技術の一側面の画像処理方法は、画像処理装置が、仮想世界上のユーザに相当するアバタの視点によるアバタ視点画像を、前記ユーザに提示する第1の提示画像として生成し、前記ユーザの動きを検出した検出結果に基づく前記ユーザの実姿勢と、前記アバタの姿勢との姿勢差が生じる場合、前記アバタ視点画像と異なる第2の提示画像を生成するステップを含む。
本技術の一側面の画像システムは、仮想世界上のユーザに相当するアバタの視点によるアバタ視点画像を、前記ユーザに提示する第1の提示画像として生成し、前記ユーザの動きを検出した検出結果に基づく前記ユーザの実姿勢と、前記アバタの姿勢との姿勢差が生じる場合、前記アバタ視点画像と異なる第2の提示画像を生成する画像生成部と、前記第1の提示画像および前記第2の提示画像を表示する表示部とを備える。
本技術の一側面においては、仮想世界上のユーザに相当するアバタの視点によるアバタ視点画像が、前記ユーザに提示する第1の提示画像として生成され、前記ユーザの動きを検出した検出結果に基づく前記ユーザの実姿勢と、前記アバタの姿勢との姿勢差が生じる場合、前記アバタ視点画像と異なる第2の提示画像が生成される。
なお、本技術の一側面の画像処理装置は、コンピュータにプログラムを実行させることにより実現することができる。
また、本技術の一側面の画像処理装置を実現するために、コンピュータに実行させるプログラムは、伝送媒体を介して伝送することにより、又は、記録媒体に記録して、提供することができる。
画像処理装置は、独立した装置であっても良いし、1つの装置を構成している内部ブロックであっても良い。
本技術の一側面によれば、「VR酔い」等のユーザの不快感を軽減することができる。
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本技術を適用した画像システムの一実施の形態の構成例を示す図である。 ボクシングゲームのコンテンツ画像の例を示す図である。 図1の画像システムの詳細構成例を示すブロック図である。 仮想世界の座標系について説明する図である。 ユーザ姿勢、アバタ姿勢、及び、提示画像姿勢の3つの姿勢について説明する図である。 提示画像生成処理を説明するフローチャートである。 仮想世界を複数ユーザで共有するコンテンツの例を説明する図である。 本技術を適用したコンピュータの一実施の形態の構成例を示すブロック図である。
以下、本技術を実施するための形態(以下、実施の形態という)について説明する。
<画像システムの構成例>
図1は、本技術を適用した画像システムの一実施の形態の構成例を示している。
図1の画像システム1は、ヘッドマウントディスプレイ11(以下、HMD11と記述する。)、画像処理装置12、および、コントローラ13により構成される。
HMD11は、画像処理装置12で生成された、仮想世界上の画像を表示し、ユーザに提示する。画像処理装置12は、HMD11に表示させる画像を生成し、HMD11に供給する。コントローラ13は、複数の操作ボタン(不図示)を備え、ユーザの操作を受け付けて、ユーザの操作に応じた所定の指示を画像処理装置12に供給する。
HMD11と画像処理装置12との間、画像処理装置12とコントローラ13との間は、例えばHDMI(登録商標)(High Definition Multimedia Interface)やMHL(Mobile High−definition Link)などの有線ケーブル、あるいは、Wi−Fi(Wireless Fidelity)、wirelessHDやMiracastのような無線通信により接続される。
本実施の形態では、例えば、画像処理装置12は、図2に示されるような画像を表示させる。図2の画像は、HMD11を装着しているユーザをプレーヤとした1人称視点のボクシングゲーム(コンテンツ)の画像である。HMD11に表示される画像は、2D画像でもよし、ユーザの右眼に見せるための右眼用画像と、ユーザの左眼に見せるための左眼用画像を表示して、立体的に視認させる3D画像でもよい。
以上のように構成される画像システム1において、画像処理装置12は、ユーザがHMD11に表示された画像を視認して仮想世界を体験している状態において、「VR酔い」等の不快感を軽減させるように画像を生成して、HMD11に表示させる。
なお、HMD11、画像処理装置12、及び、コントローラ13は、必要に応じて合体されて、画像システム1が、1つまたは2つの装置で構成されてもよい。
<画像システムの詳細構成例>
図3は、画像システム1の詳細構成例を示すブロック図である。
HMD11は、センサ41と表示部42を備える。
センサ41は、例えば、ジャイロ・センサ、加速度センサ、地磁気センサなどの1以上のセンサ素子の組み合わせで構成され、ユーザの頭部の位置及び方向を検出する。本実施の形態では、センサ41は、3軸ジャイロ・センサ、3軸加速度センサ、3軸地磁気センサの合計9軸を検出可能なセンサであるとする。センサ41は、検出した結果を画像処理装置12に供給する。
表示部42は、例えば有機EL(Electro−Luminescence)素子や液晶ディスプレイなどで構成され、画像処理装置12から供給される画像信号に基づいて所定の画像を表示する。
なお、HMD11には、音声出力を行うスピーカや、ユーザの音声を取得するマイクロホンなどがあってもよい。
コントローラ13は、複数の操作ボタンを含む操作部81を備え、ユーザの操作を受け付けて、ユーザの操作に応じた所定の指示を画像処理装置12に供給する。
画像処理装置12は、記憶部61と画像生成部62を少なくとも有し、画像生成部62は、アバタ動作制御部71、ユーザ姿勢検出部72、姿勢差算出部73、及び、提示画像生成部74により構成される。
記憶部61は、例えば、ハードディスクや不揮発性のメモリなどで構成され、画像処理装置12の動作を制御するプログラムや、HMD11に画像を表示するためのコンテンツ(プログラム)などを記憶する。
アバタ動作制御部71は、表示部42に表示される仮想世界上の画像(コンテンツ画像)においてユーザに相当するアバタの動作(姿勢)を制御する。アバタの動作(姿勢)の制御には、ユーザ姿勢検出部72によって検出される、ユーザの実際の姿勢(ユーザの実姿勢)も考慮される。アバタの動作は、例えば、表示部42に表示された仮想世界のコンテンツ画像において、ユーザが選択した動作や、ユーザが行ったアクション等によって変化する。
アバタ動作制御部71は、例えば、図2に示したボクシングゲームの対戦相手のように、表示部42に表示される画像にプレーヤ本人以外のアバタが登場する場合には、他人のアバタの動作(姿勢)も制御する。以下では、ユーザ本人のアバタと、他人のアバタを区別するため、他人のアバタを意味する場合は、他人アバタと称することとして、単にアバタと称する場合には、ユーザ本人のアバタを意味するものとする。
ユーザ姿勢検出部72は、センサ41から供給される、ユーザの頭部の位置及び方向の検出結果に基づいて、ユーザの実姿勢を検出する。
姿勢差算出部73は、アバタ動作制御部71によって決定されたアバタの姿勢と、ユーザ姿勢検出部72によって検出されたユーザの実姿勢との姿勢差を算出する。
提示画像生成部74は、記憶部61から取得されたコンテンツの画像であって、ユーザに提示する提示画像を生成し、表示部42に供給する。提示画像は、アバタ動作制御部71によって決定されたユーザ本人のアバタと他人アバタの動作、ユーザ姿勢検出部72によって決定されたユーザの実姿勢、及び、姿勢差算出部73によって決定されたアバタの姿勢とユーザの実姿勢の姿勢差とに基づいて生成される。提示画像生成部74は、通常の場面では、ユーザの実姿勢にアバタの姿勢を合わせ、アバタの視点による画像がユーザに提示されるように提示画像(第1の提示画像)を生成するが、所定の条件下においては、「VR酔い」等のユーザの不快感を軽減させるため、アバタ視点の画像とは異なる画像を提示画像(第2の提示画像)として生成し、表示部42に表示させる。
<提示画像の説明>
図4及び図5を参照して、提示画像生成部74によって生成される提示画像についてさらに説明する。
初めに、図4を参照して、表示部42に表示されるコンテンツ内の仮想世界と、仮想世界上のアバタの姿勢を表現する座標系について説明する。
図4のAに示されるように、表示部42に表示されるコンテンツ内の仮想世界をX軸、Y軸、及び、Z軸からなる3次元空間とすると、アバタの姿勢は、3次元位置(x,y,z)と2次元の方向(θ,φ)とからなる5つのパラメータ(x,y,z,θ,φ)で表現することができる。
ここで、3次元位置(x,y,z)は、仮想世界上のアバタの頭部の位置に対応し、2次元の方向(θ,φ)は、仮想世界上のアバタの視線方向(頭部が向く方向)に対応する。方向θは、図4のBに示されるように、XZ平面上の所定の基準軸(図4のBの例ではZ軸)に対して視線方向がなす角であり、いわゆる方位角である。方向φは、図4のCに示されるように、XZ平面に対して視線方向がなすY軸方向の角であり、いわゆる仰角である。したがって、本明細書における姿勢には、仮想世界上の頭部位置だけでなく、視線方向も含まれる。
表示部42に表示されるコンテンツの仮想世界において、ユーザ姿勢pos、アバタ姿勢pos、及び、提示画像姿勢posの3つの姿勢を以下のように定義する。
ユーザ姿勢pos=(x,y,z,θ,φ
アバタ姿勢pos=(x,y,z,θ,φ
提示画像姿勢pos=(x,y,z,θ,φ
ユーザ姿勢posとは、センサ41から供給される検出結果によって決定されるユーザの実姿勢を仮想世界上に投影したものである。アバタ姿勢posとは、アバタの姿勢を仮想世界上の座標で表現したものである。提示画像姿勢posは、表示部42に表示される提示画像に対応する仮想の姿勢である。
図5を参照して、ユーザ姿勢pos、アバタ姿勢pos、及び、提示画像姿勢posの3つの姿勢について具体的に説明する。
図2に示したボクシングゲームのコンテンツの例で説明する。
例えば、通常の場面では、ユーザ姿勢検出部72によって検出されるユーザの実姿勢に応じてアバタの姿勢が制御されるので、アバタ姿勢posとユーザ姿勢posは同一となる。つまり、アバタ姿勢pos=ユーザ姿勢posである。また、表示部42に表示される提示画像は、アバタの視点からの仮想世界の画像となるので、提示画像姿勢pos=アバタ姿勢posである。
したがって、「VR酔い」を軽減する特別な処理を行わない通常の場面では、
提示画像姿勢pos=アバタ姿勢pos=ユーザ姿勢pos
となる。
次に、例として、対戦相手のパンチによって、アバタがダウンした(地面に倒れた)場面を想定する。
実際のユーザは地面に倒れておらず、図5の姿勢101のように立った姿勢であるとすると、ユーザ姿勢検出部72によって算出されるユーザ姿勢pos=(x,y,z,θ,φ)は姿勢101となる。
一方、アバタ動作制御部71によって制御されるアバタ姿勢pos=(x,y,z,θ,φ)は、図5に示される、地面に倒れた姿勢102となる。
通常の場面では、上述したように、アバタの視点からの仮想世界の画像を提示画像とするが、アバタの急激な移動に合わせて提示画像を大きく変化させると、ユーザが「VR酔い」をおこすおそれがある。
そこで、提示画像生成部74は、アバタ姿勢pos(図5の姿勢102)に対応する画像ではなく、例えば、ユーザの実姿勢(図5の姿勢101)に近い姿勢103に対応する画像111を提示画像として生成し、表示部42に表示させる。提示画像としての画像111は、アバタ姿勢posに対応する画像よりも視界変化が緩やかな画像である。提示画像となる画像111に対応する姿勢103が、提示画像姿勢pos=(x,y,z,θ,φ)である。
図5の例では、VR酔いを軽減する処理が施された場面では、提示画像姿勢posは、アバタ姿勢posとユーザ姿勢posのいずれの姿勢とも異なるが、提示画像は、少なくとも通常場面の提示画像であるアバタ視点画像とは異なる画像であればよい。例えば、提示画像は、ユーザの実姿勢に対応する画像でもよい。
<提示画像生成処理>
次に、図6のフローチャートを参照して、画像処理装置12による提示画像生成処理について説明する。この処理は、例えば、HMD11の表示部42に所定のコンテンツ画像を表示させる操作が行われたとき開始される。
初めに、ステップS1において、アバタ動作制御部71は、表示部42に表示される仮想世界におけるアバタの動作(アバタ姿勢pos)を決定する。また、仮想世界上にプレーヤ本人以外の他人アバタが登場する場合には、他人アバタの動作(姿勢)も決定する。ステップS1以降、アバタの動作の決定は、コンテンツの内容に従って常時実行される。
ステップS2において、ユーザ姿勢検出部72は、センサ41から供給された、ユーザの頭部の位置及び方向を示すセンサ検出結果に基づいて、ユーザの実姿勢posを検出する。センサ検出結果に基づくユーザの実姿勢posの検出も、これ以降常時実行される。検出されたユーザの実姿勢posはアバタ動作制御部71に供給され、アバタの動作(姿勢)が、ユーザの動作に合わせられる。
ステップS3において、提示画像生成部74は、アバタの視点からの画像であるアバタ視点画像を提示画像として生成し、HMD11の表示部42に供給して表示させる。ここでの提示画像姿勢posは、アバタ姿勢pos及びユーザ姿勢posと等しくなる(提示画像姿勢pos=アバタ姿勢pos=ユーザ姿勢pos)。
ステップS4において、姿勢差算出部73は、アバタ動作制御部71によって決定されたアバタ姿勢posと、ユーザ姿勢検出部72によって検出されたユーザの実姿勢posとの姿勢差を算出して、提示画像生成部74に供給する。
ステップS5において、提示画像生成部74は、アバタ姿勢posとユーザの実姿勢posとの姿勢差が、予め決定された第1の範囲以上であるかを判定する。
ここで、ステップS5における第1の範囲として、例えば、方位角θの閾値thresθおよび、仰角φの閾値thresφを設定し、以下の式(1)または式(2)のどちらかの条件を満たしたとき、提示画像生成部74は、アバタ姿勢posとユーザの実姿勢posとの姿勢差が第1の範囲以上であると判定することができる。式(1)及び式(2)の|d|は、dの絶対値を表す。
|θ−θ|>thresθ ・・・(1)
|φ−φ|>thresφ ・・・(2)
式(1)のthresθは、方位角θの閾値であり、式(2)のthresφは、仰角φの閾値である。閾値thresθ及び閾値thresφとしては、任意の値を設定することができるが、例えば、30度に設定することができる。この30度という数値は、平均的な人間は正面からずれた方向にある物体を見るときに30度以内であれば眼球のみを運動させることで視線方向を移動させるが、それ以上のずれた方向にある物体を見るときには自然と頭部の運動を行うという数値である。
また、酔いを防止するための厳しい判定条件とする場合には、閾値thresθ及び閾値thresφは、1度に設定することができる。これは、ものの細部を注視するときに利用する中心窩と呼ばれる網膜中心部領域の範囲が、平均的な人間では約1度と言われることによる。閾値thresθ及び閾値thresφは、設定画面等を用いてユーザ所望の値に変更することができる。これらの閾値を変更することにより、酔い防止の程度を制御することができる。
上述した判定条件は、主に頭部の向きを動かされたことを判定する条件となるが、アバタが身体全体を大きく移動させられるケースも加味する場合には、式(1)及び式(2)の条件に加えて、次の式(3)の条件を加えることができる。すなわち、式(1)乃至式(3)のいずれかの条件を満たしたとき、アバタ姿勢posとユーザの実姿勢posとの姿勢差が第1の範囲以上であると判定する。
Δxau>thres ・・・(3)
式(3)におけるΔxauは、ユーザの実姿勢posの頭部位置(x,y,z)と、アバタ姿勢posの頭部位置(x,y,z)との差分を表し、Δxauとしては、式(4)の2次元ノルムや式(5)の1次元ノルムを採用することができる。thresは、Δxauの閾値を表す。
Figure 2018155233
その他のステップS5における判定条件としては、アバタの頭部位置の移動速度や視線方向の角速度を用いてもよい。具体的には、アバタの視線方向(θ,φ)の角速度をΔθ、Δφとし、アバタの頭部位置(x,y,z)の時間変化量(移動速度)をvとして、式(6)乃至式(8)のいずれかの条件を満たしたとき、アバタ姿勢posとユーザの実姿勢posとの姿勢差が第1の範囲以上であると判定してもよい。
|Δθ−Δθ|>thresΔθ ・・・(6)
|Δφ−Δφ|>thresΔφ ・・・(7)
>thres ・・・(8)
さらに、ステップS5では、アバタ姿勢posとユーザの実姿勢posとの姿勢差が第1の範囲以上であると判定される現象が1回発生しただけでなく、所定回数以上発生したとき、または、所定時間継続して発生したときに、姿勢差が第1の範囲以上であると判定するようにしてもよい。
ステップS5で、アバタ姿勢posとユーザの実姿勢posとの姿勢差が第1の範囲以上ではないと判定された場合、処理はステップS3に戻り、上述したステップS3乃至S5の処理が繰り返される。これにより、アバタ姿勢posとユーザの実姿勢posとの姿勢差が第1の範囲より小さい場合には、アバタの視点からのアバタ視点画像が提示画像として表示され、提示画像姿勢pos=アバタ姿勢posとなる。
一方、ステップS5で、アバタ姿勢posとユーザの実姿勢posとの姿勢差が第1の範囲以上であると判定された場合、処理はステップS6に進み、提示画像生成部74は、提示画像として「VR酔い」等の不快感を軽減させるための軽減処理画像を生成し、表示部42に供給して表示させる。
提示画像生成部74は、軽減処理画像として、例えば、ユーザ姿勢posに対応する画像を生成して表示させる。この場合、提示画像姿勢posは、ユーザ姿勢posとなる。
pos=(x,y,z,θ,φ)=(x,y,z,θ,φ
あるいはまた、提示画像生成部74は、軽減処理画像として、例えば、提示画像姿勢posの頭部位置についてはアバタ姿勢posの頭部位置とし、提示画像姿勢posの視線方向についてはユーザ姿勢posの視線方向とした画像を生成して表示させる。つまり、提示画像姿勢posは、次のようになる。
pos=(x,y,z,θ,φ)=(x,y,z,θ,φ
あるいはまた、提示画像生成部74は、軽減処理画像として、例えば、提示画像姿勢posの頭部位置と方位角θについてはアバタ姿勢posの頭部位置と方位角θとし、提示画像姿勢posの仰角φについてはユーザ姿勢posの仰角φとした画像を生成して表示させる。つまり、提示画像姿勢posは、次のようになる。
pos=(x,y,z,θ,φ)=(x,y,z,θ,φ
これは、ユーザは、上下方向に意図せず視野を変更されるとより酔いやすいため、この方向にのみ、ユーザの視線方向を採用することを意味する。
反対に、軽減処理画像として、例えば、提示画像姿勢posの頭部位置と仰角φについてはアバタ姿勢posの頭部位置と仰角φとし、提示画像姿勢posの方位角θについてはユーザ姿勢posの方位角θとした画像を生成して表示させてもよい。つまり、提示画像姿勢posは、次のようになる。
pos=(x,y,z,θ,φ)=(x,y,z,θ,φ
これは、方位角θにのみ、ユーザの視線方向を採用することを意味する。
次に、ステップS7において、提示画像生成部74は、アバタ姿勢posとユーザの実姿勢posとの姿勢差が、予め決定された第2の範囲以内となったかを判定する。
ステップS7で、アバタ姿勢posとユーザの実姿勢posとの姿勢差がまだ第2の範囲以内となっていない、即ち、アバタ姿勢posとユーザの実姿勢posとの姿勢差が第2の範囲より大きいと判定された場合、処理はステップS6に戻り、上述した処理が繰り返される。即ち、提示画像として軽減処理画像が継続して生成され、表示部42に表示される。
一方、ステップS7で、アバタ姿勢posとユーザの実姿勢posとの姿勢差が第2の範囲以内となったと判定された場合、処理はステップS8に進み、提示画像生成部74は、軽減処理画像を、アバタ視点画像(アバタ姿勢posに対応する画像)に徐々に近づくように生成し、表示部42に表示させる。ステップS8の処理後には、提示画像姿勢pos=アバタ姿勢pos=ユーザ姿勢posとなる。
このステップS8の処理である、提示画像(軽減処理画像)をアバタ視点画像に連続的に近づける提示画像姿勢posの制御には、例えば、単純な線形運動や、ベジエなどの曲線運動、身体モデルに基づく幾何拘束が許す駆動範囲内の運動などによる計算を用いることができる。
ステップS8の後、処理はステップS3に戻され、上述したステップS3乃至S8が、再び実行される。第1の範囲と第2の範囲の値は、同じ値としてもよいし、異なる値としてもよい。
以上の処理が提示画像生成処理として実行される。
以上のように、画像システム1による提示画像生成処理では、提示画像生成部74が、アバタ姿勢posとユーザの実姿勢posとの姿勢差が所定の閾値(第1の範囲)より小さい場合、アバタの視点によるアバタ視点画像(アバタ姿勢posに対応する画像)を第1の提示画像として生成し、アバタ姿勢posとユーザの実姿勢posとの姿勢差が所定の閾値(第1の範囲)以上であり、アバタ姿勢posとユーザの実姿勢posとで一定以上の姿勢差が生じている場合、アバタ視点画像と異なる軽減処理画像を第2の提示画像として生成し、表示部42に表示させる。これにより、「VR酔い」等のユーザの不快感を軽減することができる。
なお、上述したステップS6における軽減処理画像の生成では、仮想世界上のコンテンツ画像を用いて軽減処理画像を生成し、表示したが、例えば、画面全体が黒一色の黒画像(ブラックアウト画面)や、「酔い」を防止するために画面を変更中であることを説明する注意喚起画面など、表示中のコンテンツ画像と異なる画像を表示してもよい。
この場合、ステップS8で実行される、アバタ視点画像に連続的に近づける処理では、例えば、黒画像とアバタ視点画像をアルファブレンディングするアルファブレンド処理等を用いて、アバタ視点画像に戻すことができる。
アバタ視点画像をI、黒画像をIとすると、ステップS8における軽減処理画像Iは、ブレンド率α(0≦α≦1)を用いて以下の式(9)で表される。
=αI+(1−α)I ・・・(9)
式(9)のブレンド率αを時間経過とともに0から1に連続的に変化させることで、黒画像から、元のアバタ視点画像に徐々に戻るように制御することができる。
<仮想世界を複数ユーザで共有するコンテンツの例>
上述した例は、1人のユーザが仮想世界を体験する例であったが、複数のユーザで同一の仮想世界を共有して体験する場合もある。
例えば、図7に示されるように、一方のユーザ121AのHMD11に表示される仮想世界上(提示画像)には、他方のユーザ121Bのアバタ131Bが表示され、他方のユーザ121BのHMD11に表示される仮想世界上(提示画像)には、一方のユーザ121Aのアバタ131Aが表示されている場面があるとする。
ユーザ121Aのアバタ131Aは、ユーザ121Aのセンサ検出結果に基づいて、仮想世界上を動作する。ユーザ121Bのアバタ131Bは、ユーザ121Bのセンサ検出結果に基づいて、仮想世界上を動作する。
したがって、基本的には、アバタ131(131A、131B)は、ユーザ121(121A、121B)の動作と同じ動きをするが、コンテンツの設計として、ユーザ121の動作と一致しない動作を行わせることがある。
例えば、ユーザ121Aのアバタ131Aに、ユーザ121Aがあいさつのお辞儀をさせる場面を考える。
実際のユーザ121Aがお辞儀の動作をしてもよいが、ユーザ121Bには実際のユーザ121Aの姿は見えないので、ユーザ121Bが仮想世界上で見ているアバタ131Aにお辞儀動作をさせればよい。そこで、ユーザ121Aは、コントローラ13の操作や音声入力等により、アバタ131Aにお辞儀をさせる動作指示を行う。
このような場面においては、上述したような、ユーザ姿勢posとアバタ姿勢posが異なる状況が発生するので、図6で説明した提示画像生成処理が同様に適用できる。
即ち、ユーザ121Aが操作ボタン等によりお辞儀動作を指示すると、ユーザ121Bが装着しているHMD11の表示部42に、ユーザ121Aのアバタ131Aがお辞儀動作を行う提示画像が表示される。ユーザ121Aのアバタ131Aがお辞儀動作を行うと、ユーザ121Aのアバタ姿勢posと実姿勢posとの姿勢差が第1の範囲以上となるので、図6のステップS6の処理として、提示画像生成部74は、軽減処理画像を生成して、ユーザ121Aが装着しているHMD11の表示部42に表示させる。換言すれば、お辞儀動作を行うアバタ131Aの視点によるアバタ視点画像をユーザ121Aが装着しているHMD11の表示部42に表示すると、視界変化が大きく、「酔い」が発生するので、軽減処理画像に切り換えられる。
そして、お辞儀動作が終了し、ユーザ121Aのアバタ姿勢posと実姿勢posとの姿勢差が第2の範囲以内となると、図6のステップS8の処理として、提示画像のアバタ131Aのアバタ姿勢posが、ユーザ121Aの実姿勢posに徐々に近づくように制御される。
ユーザ121が自分のアバタ131にどのような動作を行わせるかが選択可能な動作コマンドとなっている場合、動作コマンドごとに、軽減処理画像を提示するか否かが予め決定されており、指示された動作コマンドに応じて、予め用意された提示画像を表示させてもよい。これにより、ユーザの動きを検出した検出結果に基づくユーザの実姿勢posと、アバタ姿勢posとの姿勢差が生じる場合の動作コマンドに対して、アバタの視点画像と異なる画像を表示することにより、VR酔いを抑制することができる。
<コンピュータの構成例>
上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているマイクロコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
図8は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。
コンピュータにおいて、CPU(Central Processing Unit)201,ROM(Read Only Memory)202,RAM(Random Access Memory)203は、バス204により相互に接続されている。
バス204には、さらに、入出力インタフェース205が接続されている。入出力インタフェース205には、入力部206、出力部207、記憶部208、通信部209、及びドライブ210が接続されている。
入力部206は、キーボード、マウス、マイクロホンなどよりなる。出力部207は、ディスプレイ、スピーカなどよりなる。記憶部208は、ハードディスクや不揮発性のメモリなどよりなる。通信部209は、ネットワークインタフェースなどよりなる。ドライブ210は、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブル記録媒体211を駆動する。
以上のように構成されるコンピュータでは、CPU201が、例えば、記憶部208に記憶されているプログラムを、入出力インタフェース205及びバス204を介して、RAM203にロードして実行することにより、上述した一連の処理が行われる。
コンピュータでは、プログラムは、リムーバブル記録媒体211をドライブ210に装着することにより、入出力インタフェース205を介して、記憶部208にインストールすることができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して、通信部209で受信し、記憶部208にインストールすることができる。その他、プログラムは、ROM202や記憶部208に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
フローチャートに記述されたステップは、記載された順序に沿って時系列的に行われる場合はもちろん、必ずしも時系列的に処理されなくとも、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで実行されてもよい。
本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
上述した実施の形態において、ユーザに提示する提示画像を表示する表示装置として、ヘッドマウントディスプレイ(HMD)の例を説明したが、画像システム1の表示装置としては、ヘッドアップディスプレイ(HUD)でもよいし、ドーム型(半球状)のディスプレイなどでもよい。ユーザの視野を覆うように映像を表示する表示装置であればよい。
例えば、上述した実施の形態の一部を適宜組み合わせた形態を採用することができる。
本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、本明細書に記載されたもの以外の効果があってもよい。
なお、本技術は以下のような構成も取ることができる。
(1)
仮想世界上のユーザに相当するアバタの視点によるアバタ視点画像を、前記ユーザに提示する第1の提示画像として生成し、前記ユーザの動きを検出した検出結果に基づく前記ユーザの実姿勢と、前記アバタの姿勢との姿勢差が生じる場合、前記アバタ視点画像と異なる第2の提示画像を生成する画像生成部
を備える画像処理装置。
(2)
前記姿勢は、頭部位置と視線方向とで定義され、
前記画像生成部は、前記ユーザの実姿勢と前記アバタの姿勢の方位角または仰角の差が第1の閾値以上である場合、前記アバタ視点画像と異なる第2の提示画像を生成する
前記(1)に記載の画像処理装置。
(3)
前記姿勢は、頭部位置と視線方向とで定義され、
前記画像生成部は、前記ユーザの実姿勢と前記アバタの姿勢の方位角若しくは仰角の差が第1の閾値以上であるか、または、前記ユーザの実姿勢と前記アバタの姿勢の頭部位置の差分が第1の閾値以上である場合、前記アバタ視点画像と異なる第2の提示画像を生成する
前記(1)に記載の画像処理装置。
(4)
前記第2の提示画像は、前記ユーザの姿勢に対応する画像である
前記(1)乃至(3)のいずれかに記載の画像処理装置。
(5)
前記第2の提示画像は、前記アバタの姿勢の頭部位置と前記ユーザの姿勢の視線方向に対応する画像である
前記(1)乃至(3)のいずれかに記載の画像処理装置。
(6)
前記第2の提示画像は、前記アバタの姿勢の頭部位置及び方位角と前記ユーザの姿勢の仰角に対応する画像である
前記(1)乃至(3)のいずれかに記載の画像処理装置。
(7)
前記第2の提示画像は、前記アバタの姿勢の頭部位置及び仰角と前記ユーザの姿勢の方位角に対応する画像である
前記(1)乃至(3)のいずれかに記載の画像処理装置。
(8)
前記画像生成部は、前記ユーザの実姿勢と前記アバタの姿勢との姿勢差が第1の閾値以上である場合が所定回数または所定時間継続して発生したとき、前記アバタ視点画像と異なる第2の提示画像を生成する
前記(1)乃至(7)のいずれかに記載の画像処理装置。
(9)
前記画像生成部は、さらに、前記ユーザの実姿勢と前記アバタの姿勢との姿勢差が第2の閾値以内である場合、前記アバタ視点画像に徐々に近づくように、前記第2の提示画像を生成する
前記(1)乃至(8)のいずれかに記載の画像処理装置。
(10)
前記ユーザに相当するアバタの動作を指示する操作部をさらに備え、
前記画像生成部は、前記操作部による指示を受けて前記アバタが動作することによって、前記ユーザの実姿勢と前記アバタの姿勢との姿勢差が生じる場合、前記アバタ視点画像と異なる第2の提示画像を生成する
前記(1)乃至(9)のいずれかに記載の画像処理装置。
(11)
画像処理装置が、
仮想世界上のユーザに相当するアバタの視点によるアバタ視点画像を、前記ユーザに提示する第1の提示画像として生成し、前記ユーザの動きを検出した検出結果に基づく前記ユーザの実姿勢と、前記アバタの姿勢との姿勢差が生じる場合、前記アバタ視点画像と異なる第2の提示画像を生成する
ステップを含む画像処理方法。
(12)
仮想世界上のユーザに相当するアバタの視点によるアバタ視点画像を、前記ユーザに提示する第1の提示画像として生成し、前記ユーザの動きを検出した検出結果に基づく前記ユーザの実姿勢と、前記アバタの姿勢との姿勢差が生じる場合、前記アバタ視点画像と異なる第2の提示画像を生成する画像生成部と、
前記第1の提示画像および前記第2の提示画像を表示する表示部と
を備える画像システム。
1 画像システム, 11 HMD, 12 画像処理装置, 13 コントローラ, 41 センサ, 42 表示部, 62 画像生成部, 71 アバタ動作制御部, 72 ユーザ姿勢検出部, 73 姿勢差算出部, 74 提示画像生成部, 81 操作部, 201 CPU, 202 ROM, 203 RAM, 206 入力部, 207 出力部, 208 記憶部, 209 通信部, 210 ドライブ

Claims (12)

  1. 仮想世界上のユーザに相当するアバタの視点によるアバタ視点画像を、前記ユーザに提示する第1の提示画像として生成し、前記ユーザの動きを検出した検出結果に基づく前記ユーザの実姿勢と、前記アバタの姿勢との姿勢差が生じる場合、前記アバタ視点画像と異なる第2の提示画像を生成する画像生成部
    を備える画像処理装置。
  2. 前記姿勢は、頭部位置と視線方向とで定義され、
    前記画像生成部は、前記ユーザの実姿勢と前記アバタの姿勢の方位角または仰角の差が第1の閾値以上である場合、前記アバタ視点画像と異なる第2の提示画像を生成する
    請求項1に記載の画像処理装置。
  3. 前記姿勢は、頭部位置と視線方向とで定義され、
    前記画像生成部は、前記ユーザの実姿勢と前記アバタの姿勢の方位角若しくは仰角の差が第1の閾値以上であるか、または、前記ユーザの実姿勢と前記アバタの姿勢の頭部位置の差分が第1の閾値以上である場合、前記アバタ視点画像と異なる第2の提示画像を生成する
    請求項1に記載の画像処理装置。
  4. 前記第2の提示画像は、前記ユーザの姿勢に対応する画像である
    請求項1に記載の画像処理装置。
  5. 前記第2の提示画像は、前記アバタの姿勢の頭部位置と前記ユーザの姿勢の視線方向に対応する画像である
    請求項1に記載の画像処理装置。
  6. 前記第2の提示画像は、前記アバタの姿勢の頭部位置及び方位角と前記ユーザの姿勢の仰角に対応する画像である
    請求項1に記載の画像処理装置。
  7. 前記第2の提示画像は、前記アバタの姿勢の頭部位置及び仰角と前記ユーザの姿勢の方位角に対応する画像である
    請求項1に記載の画像処理装置。
  8. 前記画像生成部は、前記ユーザの実姿勢と前記アバタの姿勢との姿勢差が第1の閾値以上である場合が所定回数または所定時間継続して発生したとき、前記アバタ視点画像と異なる第2の提示画像を生成する
    請求項1に記載の画像処理装置。
  9. 前記画像生成部は、さらに、前記ユーザの実姿勢と前記アバタの姿勢との姿勢差が第2の閾値以内である場合、前記アバタ視点画像に徐々に近づくように、前記第2の提示画像を生成する
    請求項1に記載の画像処理装置。
  10. 前記ユーザに相当するアバタの動作を指示する操作部をさらに備え、
    前記画像生成部は、前記操作部による指示を受けて前記アバタが動作することによって、前記ユーザの実姿勢と前記アバタの姿勢との姿勢差が生じる場合、前記アバタ視点画像と異なる第2の提示画像を生成する
    請求項1に記載の画像処理装置。
  11. 画像処理装置が、
    仮想世界上のユーザに相当するアバタの視点によるアバタ視点画像を、前記ユーザに提示する第1の提示画像として生成し、前記ユーザの動きを検出した検出結果に基づく前記ユーザの実姿勢と、前記アバタの姿勢との姿勢差が生じる場合、前記アバタ視点画像と異なる第2の提示画像を生成する
    ステップを含む画像処理方法。
  12. 仮想世界上のユーザに相当するアバタの視点によるアバタ視点画像を、前記ユーザに提示する第1の提示画像として生成し、前記ユーザの動きを検出した検出結果に基づく前記ユーザの実姿勢と、前記アバタの姿勢との姿勢差が生じる場合、前記アバタ視点画像と異なる第2の提示画像を生成する画像生成部と、
    前記第1の提示画像および前記第2の提示画像を表示する表示部と
    を備える画像システム。
JP2019501226A 2017-02-23 2018-02-09 画像処理装置、画像処理方法、および画像システム Active JP6984645B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017032021 2017-02-23
JP2017032021 2017-02-23
PCT/JP2018/004567 WO2018155233A1 (ja) 2017-02-23 2018-02-09 画像処理装置、画像処理方法、および画像システム

Publications (2)

Publication Number Publication Date
JPWO2018155233A1 true JPWO2018155233A1 (ja) 2020-01-23
JP6984645B2 JP6984645B2 (ja) 2021-12-22

Family

ID=63253685

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019501226A Active JP6984645B2 (ja) 2017-02-23 2018-02-09 画像処理装置、画像処理方法、および画像システム

Country Status (5)

Country Link
US (1) US10969861B2 (ja)
EP (1) EP3588447B1 (ja)
JP (1) JP6984645B2 (ja)
CN (1) CN110300994B (ja)
WO (1) WO2018155233A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6857795B2 (ja) 2017-12-28 2021-04-14 株式会社コナミデジタルエンタテインメント 情報処理装置、情報処理装置のプログラム、情報処理システム、及び、表示方法
JP6590324B2 (ja) * 2017-12-28 2019-10-16 株式会社コナミデジタルエンタテインメント 情報処理装置、情報処理装置のプログラム、情報処理システム、及び、表示方法
KR102284266B1 (ko) * 2018-12-13 2021-08-02 한국과학기술원 신경 불일치 모델을 고려한 가상현실 멀미 평가 방법 및 그 장치
JP7307568B2 (ja) * 2019-03-20 2023-07-12 任天堂株式会社 画像表示システム、画像表示プログラム、表示制御装置、および画像表示方法
JP6644928B1 (ja) * 2019-03-29 2020-02-12 株式会社ドワンゴ 配信サーバ、視聴者端末、配信者端末、配信方法、情報処理方法及びプログラム
JP6664778B1 (ja) * 2019-03-31 2020-03-13 アヘッド・バイオコンピューティング株式会社 情報処理装置、情報処理方法、および、プログラム
US11252371B2 (en) * 2019-12-13 2022-02-15 Korea Advanced Institute Of Science And Technology Apparatus and method for virtual reality sickness reduction based on virtual reality sickness assessment
US20240096033A1 (en) * 2021-10-11 2024-03-21 Meta Platforms Technologies, Llc Technology for creating, replicating and/or controlling avatars in extended reality

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008117042A (ja) * 2006-11-01 2008-05-22 Nomura Research Institute Ltd 仮想空間提供サーバ、仮想空間提供システム及びコンピュータプログラム
JP2010257081A (ja) * 2009-04-22 2010-11-11 Canon Inc 画像処理方法及び画像処理装置
WO2016002318A1 (ja) * 2014-06-30 2016-01-07 ソニー株式会社 情報処理装置及び情報処理方法、コンピューター・プログラム、並びに画像処理システム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9245177B2 (en) * 2010-06-02 2016-01-26 Microsoft Technology Licensing, Llc Limiting avatar gesture display
JP2016031439A (ja) 2014-07-28 2016-03-07 ソニー株式会社 情報処理装置及び情報処理方法、コンピューター・プログラム、並びに画像表示システム
US10579109B2 (en) * 2014-09-19 2020-03-03 Sony Corporation Control device and control method
JP6421543B2 (ja) * 2014-10-17 2018-11-14 セイコーエプソン株式会社 頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム
JP6298432B2 (ja) * 2015-10-19 2018-03-20 株式会社コロプラ 画像生成装置、画像生成方法、及び画像生成プログラム
US10808879B2 (en) * 2016-04-20 2020-10-20 Sony Interactive Entertainment Inc. Actuator apparatus
JP2017228044A (ja) * 2016-06-21 2017-12-28 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置、画像生成システム、および画像生成方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008117042A (ja) * 2006-11-01 2008-05-22 Nomura Research Institute Ltd 仮想空間提供サーバ、仮想空間提供システム及びコンピュータプログラム
JP2010257081A (ja) * 2009-04-22 2010-11-11 Canon Inc 画像処理方法及び画像処理装置
WO2016002318A1 (ja) * 2014-06-30 2016-01-07 ソニー株式会社 情報処理装置及び情報処理方法、コンピューター・プログラム、並びに画像処理システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
田中 里奈: "低信頼度の姿勢情報の置換による3DCGアバタの動作生成", 情報処理学会 研究報告 グラフィクスとCAD(CG) 2014−CG−155, vol. Vol.2014-CG-155 No.7, JPN6021032656, 21 June 2014 (2014-06-21), JP, pages 1 - 2, ISSN: 0004576383 *

Also Published As

Publication number Publication date
US20190384382A1 (en) 2019-12-19
CN110300994B (zh) 2023-07-04
EP3588447B1 (en) 2021-08-11
EP3588447A4 (en) 2020-02-26
WO2018155233A1 (ja) 2018-08-30
EP3588447A1 (en) 2020-01-01
US10969861B2 (en) 2021-04-06
JP6984645B2 (ja) 2021-12-22
CN110300994A (zh) 2019-10-01

Similar Documents

Publication Publication Date Title
JP6984645B2 (ja) 画像処理装置、画像処理方法、および画像システム
US10496158B2 (en) Image generation device, image generation method and non-transitory recording medium storing image generation program
AU2017200163B2 (en) Perception based predictive tracking for head mounted displays
US10409365B2 (en) Method of providing a virtual space image subjected to blurring processing based on detected displacement, and system therefor
US10013812B2 (en) Method and system for controlling a head-mounted display system
US10573062B2 (en) Method and system for providing a virtual space
JP6058855B1 (ja) 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム
US10394319B2 (en) Method of displaying an image, and system therefor
US11244427B2 (en) Image resolution processing method, system, and apparatus, storage medium, and device
WO2017033777A1 (ja) ヘッドマウントディスプレイシステムを制御するプログラム
JP2021531493A (ja) ダイナミックパネルマスキング
JP2017138973A (ja) 仮想空間の提供方法、およびプログラム
JP6121496B2 (ja) ヘッドマウントディスプレイシステムを制御するプログラム
JP6212666B1 (ja) 情報処理方法、プログラム、仮想空間配信システム及び装置
JP2019211864A (ja) コンピュータプログラム、情報処理装置および情報処理方法
KR102521557B1 (ko) 스크롤 입력에 기반하여 이미지 표시를 제어하는 전자 장치 및 방법
US20200241633A1 (en) Display device and display device control method
JP2018007227A (ja) 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム
JP7300569B2 (ja) 情報処理装置、情報処理方法およびプログラム
WO2024071208A1 (ja) 表示装置、表示方法及びプログラム
US20240112303A1 (en) Context-Based Selection of Perspective Correction Operations
JP2017097918A (ja) 画像表示方法及びプログラム
JP2023096844A (ja) プログラム、情報処理方法、及び情報処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210824

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211015

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211026

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211108

R151 Written notification of patent or utility model registration

Ref document number: 6984645

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151