JPWO2016002318A1 - 情報処理装置及び情報処理方法、コンピューター・プログラム、並びに画像処理システム - Google Patents

情報処理装置及び情報処理方法、コンピューター・プログラム、並びに画像処理システム Download PDF

Info

Publication number
JPWO2016002318A1
JPWO2016002318A1 JP2016531160A JP2016531160A JPWO2016002318A1 JP WO2016002318 A1 JPWO2016002318 A1 JP WO2016002318A1 JP 2016531160 A JP2016531160 A JP 2016531160A JP 2016531160 A JP2016531160 A JP 2016531160A JP WO2016002318 A1 JPWO2016002318 A1 JP WO2016002318A1
Authority
JP
Japan
Prior art keywords
posture
information
head
user
observer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016531160A
Other languages
English (en)
Other versions
JP6572893B2 (ja
Inventor
寛和 辰田
寛和 辰田
河本 献太
献太 河本
裕一郎 小山
裕一郎 小山
今 孝安
孝安 今
長谷川 雄一
雄一 長谷川
大 志村
大 志村
山本 祐輝
祐輝 山本
田中 英一
英一 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2016002318A1 publication Critical patent/JPWO2016002318A1/ja
Application granted granted Critical
Publication of JP6572893B2 publication Critical patent/JP6572893B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/285Analysis of motion using a sequence of stereo image pairs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • H04N7/185Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source from a mobile camera, e.g. for remote control
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/068Adjustment of display parameters for control of viewing angle adjustment
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0693Calibration of display systems
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/003Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Computing Systems (AREA)
  • Optics & Photonics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

観察者の頭部及び体の動きに追従した自由視点画像を表示する画像表示装置を提供する。頭部動作追跡装置200と胴体部動作追跡装置300でそれぞれ取得されるユーザーの頭部及び胴体の姿勢情報に基づいて、表示装置500で表示する視点自由空間に、ユーザーの視線方向と体の向きを個別に定位する。視線を体前方と一致させない状態で体前方に空間上で移動するという、実空間では自然な行動を表現することが可能となる。また、体の向きに関係なく、視線方向に直進するといった不自然なUIに陥ることがなくなる。

Description

本明細書で開示する技術は、観察者の動きに追従した画像を処理する情報処理装置及び情報処理方法、コンピューター・プログラム、並びに画像処理システムに関する。
ユーザーの頭部又は顔部に着用される画像表示装置、すなわち、ヘッド・マウント・ディスプレイが知られている。ヘッド・マウント・ディスプレイは、例えば左右の眼毎の画像表示部を持つとともに、ヘッドフォンと併用し、視覚及び聴覚を制御できるように構成されている。頭部に装着した際に外界を完全に遮るように構成すれば、視聴時の仮想現実感が増す。また、ヘッド・マウント・ディスプレイは、左右の眼に違う映像を映し出すことも可能であり、左右の眼に対して視差のある画像を表示すれば3D画像を提示することができる。
この種のヘッド・マウント・ディスプレイは、虚像を眼の網膜上に結像させて、ユーザーに観察させる。ここで、虚像は、物体が焦点距離よりレンズに近い位置にある場合に、その物体側に形成される。例えば、瞳孔の前方に25ミリメートルだけ離間して広視野角の虚像光学系を配置し、この広視野角光学系のさらに前方に約0.7インチの有効画素範囲の大きさを持つ表示パネルを配置して、表示画像の拡大虚像をユーザーの瞳に結像するヘッド・マウント・ディスプレイについて提案がなされている(例えば、特許文献1を参照のこと)。
また、ユーザーは、この種のヘッド・マウント・ディスプレイを用いて、広角画像の一部を切り出した画像を観察することができる。例えば、頭部にジャイロ・センサーなどからなる頭部動作追跡装置を取り付け、ユーザーの頭部の動きに追従させた全周囲360度の映像を実感できるようにしたヘッド・マウント・ディスプレイについて提案がなされている(例えば、特許文献2、特許文献3を参照のこと)。ジャイロ・センサーが検出した頭部の動きを打ち消すように、広角画像中で表示領域を移動させることで、自由視点視聴及び視点移動環境を実現することができる。
本明細書で開示する技術の目的は、観察者の動きに追従した画像を好適に処理することができる、優れた情報処理装置及び情報処理方法、コンピューター・プログラム、並びに画像処理システムを提供することにある
本願は、上記課題を参酌してなされたものであり、請求項1に記載の技術は、
観察者の頭部姿勢に関する第1の情報及び前記観察者の頭部以外の身体の姿勢に関する第2の情報を受信する受信部と、
前記第1の情報及び前記第2の情報に基づいて、前記観察者の姿勢に対応した表示画像を生成する描画処理部と、
を具備する情報処理装置である。
本願の請求項2に記載の技術によれば、請求項1に記載の情報処理装置の前記受信部は、前記第2の情報として、少なくとも前記観察者の胴体の姿勢を受信し、前記描画処理部は、前記第1の情報に基づいて自由視点空間における前記観察者の視線方向を定位するとともに、前記第2の情報から得られる前記観察者の胴体の姿勢に基づいて前記自由視点空間における前記観察者の身体の向き(視点位置)を定位して、前記観察者の頭部の姿勢に追従する自由視点画像を生成するように構成されている。
本願の請求項3に記載の技術によれば、請求項2に記載の情報処理装置の前記描画処理部は、前記自由視点空間における前記観察者の移動を指示する制御信号が入力されたときに、前記第2の情報から得られる前記観察者の胴体の姿勢に基づいて定位した身体の向きを正面方向と認識して移動後の地点(視点位置)を求めるように構成されている。
本願の請求項4に記載の技術によれば、請求項1に記載の情報処理装置の前記描画処理部は、前記第1の情報に基づいて自由視点空間における前記観察者の視線方向を定位するとともに、前記第2の情報から得られる姿勢に基づいて定位した固定位置に配置して、前記観察者の頭部姿勢に追従する自由視点画像を生成するように構成されている。
本願の請求項5に記載の技術によれば、請求項1に記載の情報処理装置の前記受信部は、前記第2の情報として、少なくとも前記観察者の胴体の姿勢を受信し、前記描画処理部は、前記第1の情報に基づいて自由視点空間における前記観察者の視線方向を定位するとともに、前記第2の情報から得られる前記観察者の胴体の姿勢に基づいて前記自由視点空間における前記観察者の身体の向き(視点位置)を定位し、且つ、前記観察者の胴体に姿勢に基づいて定位した固定位置に所定の画像部品を配置して、前記観察者の頭部の姿勢に追従する自由視点画像を生成するように構成されている。
本願の請求項6に記載の技術によれば、請求項1乃至5のいずれかに記載の情報処理装置は、キャリブレーション・パラメーターを取得するキャリブレーション処理部をさらに備えている。そして、前記描画処理部は、キャリブレーション・パラメーターで補正した姿勢情報を用いて画像生成を実施するように構成されている。
本願の請求項7に記載の技術によれば、請求項8に記載の情報処理装置の前記キャリブレーション処理部は、前記第1の情報から得られる頭部の姿勢情報と、前記第2の情報から得られる第2の姿勢情報に基づいて、第2の姿勢情報を補正するためのキャリブレーション・パラメーターを計算し、前記キャリブレーション・パラメーターを用いて前記第2の姿勢情報を補正するように構成されている。
本願の請求項8に記載の技術によれば、請求項7に記載の情報処理装置の前記キャリブレーション処理部は、前記頭部の姿勢情報と前記第2の姿勢情報を用いて前記第2の姿勢情報を前記頭部の姿勢情報に一致させるための姿勢変換パラメーターを前記キャリブレーション・パラメーターとして計算するように構成されている。
本願の請求項9に記載の技術によれば、姿勢情報はクォータニオンで表記される。そして、請求項7に記載の情報処理装置の前記キャリブレーション処理部は、前記頭部の姿勢情報に前記第2の姿勢情報のクォータニオンのインバースを右から掛けて、第2の姿勢情報を補正するためのキャリブレーション・クォータニオンを計算し、前記第2の姿勢情報のクォータニオンに前記キャリブレーション・クォータニオンを左から掛けて補正するように構成されている。
本願の請求項10に記載の技術によれば、請求項6に記載の情報処理装置の前記キャリブレーション処理部は、前記第1の情報から得られる頭部姿勢の座標系と前記第2の情報から得られる姿勢の座標系の一定期間の回転変位と、人体の性質に基づいて、前記第2の姿勢情報を補正するためのキャリブレーション・パラメーターを推定するように構成されている。
本願の請求項11に記載の技術によれば、請求項6に記載の情報処理装置の前記キャリブレーション処理部は、一定期間、前記第1の情報から得られる頭部の姿勢情報と前記第2の情報から得られる第2の姿勢情報に基づいて計算したキャリブレーション・パラメーターの時系列の平均を最終的なキャリブレーション・パラメーターとするように構成されている。
本願の請求項12に記載の技術によれば、姿勢情報はクォータニオンで表記される。そして、請求項11に記載の情報処理装置の前記キャリブレーション処理部は、新たに受信した第1の情報及び第2の情報からそれぞれ得られる姿勢情報のクォータニオンに基づいて新規に算出したキャリブレーション・クォータニオンと、時系列の平均で求めた直前のキャリブレーション・クォータニオンを球面線形補間して、キャリブレーション・クォータニオンを更新するように構成されている。
本願の請求項13に記載の技術によれば、前記第2の情報に基づいて前記観察者の胴体の姿勢が算出される。そして、請求項11に記載の情報処理装置の前記キャリブレーション処理部は、新たに受信した第1の情報及び第2の情報からそれぞれ得られる頭部及び胴体部の姿勢情報の、重力方向を回転軸としたときの回転方向の角度差分の平均値を求め、重力方向と前記平均値にキャリブレーション・パラメーターを算出するように構成されている。
本願の請求項14に記載の技術によれば、請求項1に記載の情報処理装置の前記描画処理部は、前記第1の情報から得られる頭部の姿勢と前記第2の情報から得られる胴体の姿勢の差分に基づいて、前記表示部の表示画像を処理するように構成されている。
本願の請求項15に記載の技術によれば、請求項2又は3のいずれかに記載の情報処理装置は、生体安全対応モード下において、前記描画処理部は、前記自由視点空間内の頭部姿勢と胴体姿勢の差分が小さくなるように世界座標系を補正して、自由視点画像を生成するように構成されている。
本願の請求項16に記載の技術によれば、請求項2又は3のいずれかに記載の情報処理装置の前記描画処理部は、生体安全対応モードに入った時点で自由視点空間内の頭部姿勢を固定するとともに、前記生体安全対応モード下では前記頭部姿勢検出部が検出する頭部姿勢に応じて自由視点空間内の胴体の姿勢を変化させて、自由視点画像を生成するように構成されている。
本願の請求項17に記載の技術によれば、請求項15又は16のいずれかに記載の情報処理装置は、前記第1の情報から得られる頭部の姿勢と前記第2の情報から得られる胴体の姿勢の差分が第1の閾値を超える状態が一定時間継続したときに前記生体安全対応モードに入り、前記差分が前記第1の閾値よりも小さい第2の閾値以下となったときに前記生体安全対応モードから出るように構成されている。
また、本願の請求項18に記載の技術は、
観察者の頭部姿勢に関する第1の情報及び前記観察者の頭部以外の身体の姿勢に関する第2の情報を受信する受信ステップと、
前記第1の情報及び前記第2の情報に基づいて、前記観察者の姿勢に対応した表示画像を生成する描画処理ステップと、
を有する情報処理方法である。
また、本願の請求項19に記載の技術は、
観察者の頭部の姿勢を検出する頭部姿勢検出部の検出結果に基づいて前記観察者の頭部の姿勢情報を算出する頭部姿勢演算部、
前記観察者の頭部以外の身体の1以上の第2の部位の姿勢を検出する第2の姿勢検出部の検出結果に基づいて前記第2の部位の姿勢情報を算出する第2の姿勢演算部、
前記観察者の頭部の姿勢及び前記第2の部位の姿勢に基づいて、前記観察者の頭部又は顔部に固定される表示部に表示する画像を処理する描画処理部、
としてコンピューターを機能させるようにコンピューター可読形式で記述されたコンピューター・プログラムである。
本願の請求項19に係るコンピューター・プログラムは、コンピューター上で所定の処理を実現するようにコンピューター可読形式で記述されたコンピューター・プログラムを定義したものである。換言すれば、本願の請求項19に係るコンピューター・プログラムをコンピューターにインストールすることによって、コンピューター上では協働的作用が発揮され、本願の請求項1に係る情報処理装置と同様の作用効果を得ることができる。
また、本願の請求項20に記載の技術は、
観察者の頭部又は顔部に固定される表示部と、
前記観察者の頭部の姿勢を検出する頭部姿勢検出部と、
前記観察者の頭部以外の身体の1以上の第2の部位の姿勢を検出する第2の姿勢検出部と、
前記観察者の頭部の姿勢及び前記第2の部位の姿勢に基づいて前記表示部の表示画像を処理する描画処理部と、
を具備する画像処理システムである。
本明細書で開示する技術によれば、観察者の動きに追従した画像を好適に処理することができる、優れた情報処理装置及び情報処理方法、コンピューター・プログラム、並びに画像処理システムを提供することができる。
なお、本明細書に記載された効果は、あくまでも例示であり、本発明の効果はこれに限定されるものではない。また、本発明が、上記の効果以外に、さらに付加的な効果を奏する場合もある。
本明細書で開示する技術のさらに他の目的、特徴や利点は、後述する実施形態や添付する図面に基づくより詳細な説明によって明らかになるであろう。
図1は、本明細書で開示する技術を適用した画像表示システム100の構成例を模式的に示した図である。 図2は、画像表示システム100の変形例を示した図である。 図3は、画像表示システム100の変形例を示した図である。 図4は、画像表示システム100のさらに他の変形例を示した図である。 図5は、表示装置500を着用したユーザーの上面図である。 図6は、表示装置500を着用したユーザーの正面図である。 図7は、ユーザーの頭部の動きのみに追従した自由視点画像を描画する処理手順を示したフローチャートである。 図8は、頭部動作追跡装置200及び胴体動作追跡装置300の各々から供給される姿勢情報に基づいて自由視点空間にユーザーの視線方向と体の向きを個別に定位する様子を示した図である 図9は、ユーザーの頭部の姿勢と身体の姿勢をともに考慮して自由視点画像を描画する処理手順を示したフローチャートである。 図10は、ユーザーの頭部の動きのみに追従した自由視点画像を説明するための図である。 図11は、ユーザーの頭部の姿勢と身体の姿勢を考慮して生成する自由視点画像を説明するための図である。 図12は、キャリブレーション・パラメーターにより補正した姿勢情報を用いて自由視点画像を描画する処理手順を示したフローチャートである。 図13は、キャリブレーション・パラメーターにより補正した姿勢情報を用いて自由視点画像を描画する他の処理手順を示したフローチャートである。 図14は、キャリブレーション・パラメーターにより補正した姿勢情報を用いて自由視点画像を描画するさらに他の処理手順を示したフローチャートである。 図15は、オート・キャリブレーションの処理手順を示したフローチャートである。 図16は、オート・キャリブレーションの他の処理手順を示したフローチャートである。 図17は、画像の注視点1701を移動して、ユーザーの視線方向1702が胴体の正面方向を向く元の位置に戻るように、自由視点画像を移動させている様子を示した図である。 図18は、第1の方法によりユーザーの不自然な視聴姿勢を軽減又は回避する処理を含んだ、自由視点画像の描画処理手順を示したフローチャートである。 図19は、第2の方法によりユーザーの不自然な視聴姿勢を軽減又は回避する処理を含んだ、自由視点画像の描画処理手順を示したフローチャートである。 図20は、第2の方法によりユーザーの不自然な視聴姿勢を軽減又は回避する処理を含んだ、自由視点画像の描画処理手順を示したフローチャートである。 図21は、クォータニオンqを示した図である。 図22は、球面線形補間Slerpによりクォータニオンを補間する方法を示した図である。 図23は、ユーザーの胴体姿勢に基づいて定位した固定位置にUI部品を配置して、自由視点画像を描画する処理手順を示したフローチャートである。 図24は、ユーザーの胴体姿勢に基づいて定位した固定位置にUI部品を配置して、自由視点画像を描画する処理手順を示したフローチャートである。 図25は、ユーザーの頭部姿勢に基づいて定位した固定位置にUI部品を配置した場合の自由視点画像の表示例を示した図である。 図26は、ユーザーの頭部姿勢に基づいて定位した固定位置にUI部品を配置した場合の自由視点画像の表示例を示した図である。 図27は、ユーザーの頭部姿勢に基づいて定位した固定位置にUI部品を配置した場合の自由視点画像の表示例を示した図である。 図28は、ユーザーの頭部姿勢に基づいて定位した固定位置にUI部品を配置した場合の自由視点画像の表示例を示した図である。 図29は、ユーザーの胴体姿勢に基づいて定位した固定位置にUI部品を配置した場合の自由視点画像の表示例を示した図である。 図30は、ユーザーの胴体姿勢に基づいて定位した固定位置にUI部品を配置した場合の自由視点画像の表示例を示した図である。 図31は、ユーザーの胴体姿勢に基づいて定位した固定位置にUI部品を配置した場合の自由視点画像の表示例を示した図である。 図32は、ユーザーの胴体姿勢に基づいて定位した固定位置にUI部品を配置した場合の自由視点画像の表示例を示した図である。
以下、図面を参照しながら本明細書で開示する技術の実施形態について詳細に説明する。
A.システム構成
図1には、本明細書で開示する技術を適用した画像表示システム100の構成例を模式的に示している。図示の画像表示システム100は、頭部動作追跡装置200と、胴体動作追跡装置300と、描画装置400と、表示装置500で構成される。
頭部動作追跡装置200は、表示装置500が表示する画像を観察するユーザーの頭部に装着して用いられ、所定の送信周期でユーザーの頭部の姿勢情報を描画装置400に出力する。また、胴体動作追跡装置300は、同ユーザーの胴体部に装着して用いられ、所定の送信周期でユーザーの胴体部の姿勢情報を描画装置400に出力する。
図示の例では、頭部動作追跡装置200は、センサー部201と、姿勢角演算部202と、得られた姿勢情報を描画装置400に送信する送信部203を備えている。また、胴体動作追跡装置300は、センサー部301と、姿勢角演算部302と、得られた姿勢情報を描画装置400に送信する送信部303を備えている。頭部動作追跡装置200と胴体動作追跡装置300は、ユーザーの身体に取り付ける部位や取り付け方法が相違するだけで、同様の内部構成並びに動作特性でよい。以下では、頭部動作追跡装置200の内部構成についてのみ説明するが、胴体動作追跡装置300の内部構成も同様であると理解されたい。
センサー部201は、例えば、ジャイロ・センサーと加速度センサーと地磁気センサーなど複数のセンサー素子を組み合わせて構成されている。ここでは、3軸ジャイロ・センサー、3軸加速度センサー、3軸地磁気センサーの合計9軸を検出可能なセンサーとする。姿勢角演算部202は、センサー部201による9軸の検出結果に基づいて、ユーザーの頭部など取り付けられた部位の姿勢情報を演算する。送信部203は、求められた姿勢情報を描画装置400に送信する。但し、胴体動作追跡装置300は、ユーザーの胴体部の向きを検出するだけで十分であれば、センサー部301は、9軸検出センサーである必要はなく、ジャイロ・センサーだけを装備する簡易な構成でもよい。
本実施形態では、頭部や胴体部の姿勢情報をクォータニオンの形式で表現して扱うものとする。クォータニオンは、特異点がないことからコンピューターを用いた計算に適している。コンピューター・グラフィックスの分野では、物体の姿勢をクォータニオンで表現するのが一般的である。クォータニオンqは、下式(1)並びに図21に示すように、回転軸(ベクトル)と回転角(スカラー)からなる4元数である。
但し、頭部動作追跡装置200や胴体動作追跡装置300の内部で、センサー部201、301が検出した姿勢角の情報からクォータニオンで表現される姿勢情報を演算することは必須ではない。頭部動作追跡装置200や胴体動作追跡装置300は、姿勢角をクォータニオン以外の形式で表現した情報を描画装置400に送信し、描画装置400側でクォータニオンを計算するようにしてもよい。また、図2に示すように、頭部動作追跡装置200や胴体動作追跡装置300は、センサー部201並びにセンサー部301のセンサー情報をそのまま出力し、描画装置400側に配設された姿勢角演算部202でセンサー情報から姿勢角をクォータニオン又はその他の形式で算出するようにしてもよい。
図示の画像表示システム100では、頭部動作追跡装置200と描画装置400間、並びに胴体動作追跡装置300と描画装置400間は、Bluetooth(登録商標)通信などの無線通信により相互接続されているものとする。勿論、無線通信ではなく、USB(Universal Serial Bus)のような高速な有線インフェース経由で頭部動作追跡装置200と描画装置400間、並びに胴体動作追跡装置300と描画装置400間を接続するようにしてもよい。
描画装置400は、表示装置500で表示する画像のレンダリング処理を行なう。描画装置400は、例えばスマートフォンやタブレットなどのAndroid(登録商標)搭載端末、あるいはパーソナル・コンピューター、ゲーム機として構成されるが、これらの装置に限定される訳ではない。
図示の例では、描画装置400は、頭部動作追跡装置200並びに胴体動作追跡装置300から姿勢情報を受信する受信部401と、姿勢情報に基づいて画像のレンダリング処理を行なう描画処理部402と、レンダリングした画像を表示装置500に送信する送信部402と、画像データの供給源となる画像ソース404を備えている。また、図示を省略するが、描画装置400は、音声出力部を備えていてもよい。
受信部401は、Bluetooth(登録商標)通信などを介して、頭部動作追跡装置200並びに胴体動作追跡装置300から姿勢情報を受信する。上述したように、頭部動作追跡装置200からの姿勢情報はクォータニオンの形式で表現されている。
画像ソース404は、例えば、画像コンテンツを記録するHDD(Hard Disc Drive)やSSD(Solid State Drive)などの記憶装置、ブルーレイ(登録商標)などの記録メディアを再生するメディア再生装置、ゲーム機で生成されるゲーム画像、ディジタル放送信号を選局受信する放送チューナー、インターネットのサーバーからストリーミングされる画像コンテンツを受信する通信インターフェース、ラジコンや自動車などの移動体装置に搭載された外部カメラによる撮影画像を無線により受信する無線インターフェースなどからなる。
描画処理部402は、画像ソース404の画像データから、表示装置500側で表示する画像をレンダリングする。描画処理部402は、例えば画像ソース404から供給される全天球型の原画像や4Kなどの広画角の原画像から、受信部401で受信したユーザーの頭部並びに胴体部の姿勢情報に対応した表示画角を切り出して、自由視点画像をレンダリングする。なお、インターネット上のサーバーで自由視点画像をレンダリングするというシステム構成例も想定される。この場合、例えば頭部動作追跡装置200並びに胴体動作追跡装置300がそれぞれ姿勢情報を描画装置400としての役割を果たすサーバーに送信し、サーバー側で切り出された画像を表示装置500で受信し表示するようにすればよい。
描画装置400と表示装置500間は、例えばHDMI(登録商標)(High Definition Multimedia Interface)やMHL(Mobile High−definition Link)などの有線ケーブルにより接続されている。あるいは、wirelessHDやMiracastのような無線通信で接続してもよい。送信部403は、いずれかの通信路を用いて、描画処理部402でレンダリングされた非圧縮画像データ(又は、圧縮画像データでもよい)を表示装置500に送信する。
表示装置500は、描画装置400から画像データを受信する受信部501と、受信した画像を表示する表示部502を備えている。表示装置500(若しくは表示部502)は、例えば、画像を観察するユーザーの頭部又は顔部に固定されるヘッド・マウント・ディスプレイ(例えば、特許文献1を参照のこと)として構成される。
受信部501は、例えばHDMI(登録商標)やMHLなどの通信路を介して、描画装置400から画像データを受信する。画像データが圧縮されている場合、受信部501で復号・伸長処理を行なうものとする。表示部502は、受信した画像データを画面に表示する。
表示装置500がヘッド・マウント・ディスプレイとして構成される場合、例えば、表示部502は、ユーザーの左右の眼にそれぞれ固定された左右の画面を備え、左眼用画像及び右眼用画像を表示する。表示部502の画面は、例えば有機EL(Electro−Luminescence)素子(OLED)や液晶ディスプレイ(LCD)などのマイクロ・ディスプレイなどの表示パネル、あるいは、網膜直描ディスプレイなどのレーザー走査方式ディスプレイで構成される。また、表示部502は、表示画面を拡大投影して、ユーザーの瞳に所定の画角からなる拡大虚像を結像する虚像光学系を備えている。
描画装置400側では、例えば全天球型の原画像や4Kなどの広画角の原画像から、ユーザーの頭部並びに胴体部の姿勢情報に対応した表示画角を切り出した画像をレンダリングする。表示装置500側では、ユーザーの頭部の姿勢の変化を打ち消すように原画像中の表示領域が移動することになる。したがって、頭部の動きに追従した自由視点画像を再現することができ、ユーザーは大画面を見渡す体験をすることができる。また、表示装置500は、画像の動きに合わせて音像を定位させるようにしてもよい。
図3には、画像表示システム100の変形例を模式的に示している。図1並びに図2に示した例では、画像表示システム100は、頭部動作追跡装置200、胴体動作追跡装置300、描画装置400、表示装置500という4台の独立した装置で構成されるが、図3に示す例では、描画装置400の機能が表示装置500内に搭載されている。図3中、図1と同一の構成要素については、同一の参照番号を付している。図1に示したように、頭部動作追跡装置200又は胴体動作追跡装置300の少なくとも一方を表示装置500とは別売されるオプション製品(アクセサリーなどの付属品)として構成すれば、表示装置500の小型・軽量化、低廉化になる。
また、図4には、画像表示システム100のさらに他の変形例を模式的に示している。図1並びに図2に示した例では、画像表示システム100は、頭部動作追跡装置200、胴体動作追跡装置300、描画装置400、表示装置500という4台の独立した装置で構成されるが、図4に示す例では、頭部動作追跡装置200並びに描画装置400の機能が表示装置500内に搭載されている。図4中、図1と同一の構成要素については、同一の参照番号を付している。図1に示したように、胴体動作追跡装置300のみが表示装置500に外部接続される機器として構成されている。
図5並びに図6には、画像表示システム100をユーザー1が利用する様子を示している。但し、図5は表示装置500を着用したユーザー1を上方から眺めた図であり、図6は表示装置500を着用したユーザー1を正面から眺めた図である。
表示装置500は、ヘッド・マウント・ディスプレイであり、眼鏡型や帽子型など、人の頭部に装着し易い外観構成となっている。ユーザー1は、表示装置500を頭部に着用している。また、頭部動作追跡装置200は、表示装置500のアクセサリー部品として、同様にユーザー1の頭部に取り付けられて、ユーザー1の頭部の姿勢情報を検出するようになっている。
また、図6に示すように、ユーザー1の胴体部には、胴体動作追跡装置300が取り付けられて、ユーザー1の胴体部の姿勢情報を検出するようになっている。図示の例では、胴体動作追跡装置300は、ユーザー1の腰部付近に取り付けられているが、検出する姿勢情報がユーザー1の体の向きと対応付けすることができれば、腕や肩など腰部以外の部位に取り付ける構成であってもよい。また、図示の例では、胴体動作追跡装置300は、ユーザー1が身に付けるボックス600に格納されている。
ボックス600は、専用デバイスであっても良いし、ゲーム・コンソールのコントローラーなどのジャイロ・センサー内蔵の機器であっても良い。後者の場合、ヘッド・マウント・ディスプレイなどの表示装置500と胴体動作追跡装置300の間にボックス600が位置する。胴体動作追跡装置300を、スマートフォンやタブレット端末などからなる描画装置400の機能が統合された機器として構成することもできる。また、ユーザー1が胴体動作追跡装置300を胴体部に取り付ける態様は任意であり、ボックス600が介在する必要は必ずしもない。ユーザーの使い易さを考慮すると、胴体動作追跡装置300の取り付け位置を厳密に規定せず、ユーザーが任意に取り付け位置を選べることが好ましい。例えば、ユーザーがポケットに入れた状態や、ベルトに引っ掛けた状態などが想定される。付言すれば、ユーザー1の体に取り付ける胴体動作追跡装置300の台数は1台に限定されず、2台以上を配設することもでき、台数に応じて体の向きを精度よく検知することができる。
上述したように、頭部動作追跡装置200と描画装置400間、並びに胴体動作追跡装置300と描画装置400間は、Bluetooth(登録商標)通信などの無線通信、あるいは、USB(Universal Serial Bus)のような高速な有線インフェース経由で接続されている。
ユーザー1は、表示装置500が表示する画像を視聴している間、自分の頭部や胴体部の向きを変える。描画装置400は、頭部動作追跡装置200及び胴体動作追跡装置300が検出する方位に基づいて自由視点画像を生成して、表示装置500に出力する。
なお、表示装置500として適用されるヘッド・マウント・ディスプレイは、いわゆる没入型、シースルー型、ビデオ・シースルー型のうちいずれの構成であってもよい。
没入型ヘッド・マウント・ディスプレイは、例えばユーザーの眼を覆うようにユーザーの頭部又は顔部に装着され、ユーザーの眼に対向するようにLCDやOLEDなどの表示部を配置する。このため、没入型ヘッド・マウント・ディスプレイを装着したユーザーは、外部の風景(すなわち、現実世界の風景)を直接視野に入れることが困難である。言い換えれば、表示部に表示された映像のみが視界に入るので、画像を視聴しているユーザーに対して没入感を与えることができる。
シースルー型ヘッド・マウント・ディスプレイは、ハーフミラーや導光板などからなる透明な虚像光学系をユーザーの眼に対向するように配置し、この虚像光学系の内側に画像を表示する。したがって、シースルー型ヘッド・マウント・ディスプレイを装着したユーザーは、虚像光学系の内側に表示された画像を視聴している間も、画像越しに外部の風景を視野に入れることが可能である。
ビデオ・シースルー型ヘッド・マウント・ディスプレイは、没入型と同様に、ユーザーの眼を覆うようにユーザーの頭部又は顔部に装着され、ユーザーの眼に対向するように表示部を配置する。但し、ビデオ・シースルー型ヘッド・マウント・ディスプレイは、カメラなどの周囲の風景を撮像する撮像部をさらに備え、撮像部によるユーザーの視線方向の撮像画像を表示部に表示することができる。ビデオ・シースルー型ヘッド・マウント・ディスプレイを装着したユーザーは、外部の風景を直接視野に入れることはできないが、表示部に表示された撮影画像で外部の風景を観察することができる。
B.自由視点画像の描画処理
次に、画像表示システム100で表示する自由視点画像の描画処理について説明する。
ユーザーの頭部にのみジャイロ・センサーを装備したヘッド・マウント・ディスプレイの場合(例えば、特許文献2、特許文献3を参照のこと)、頭部の変位からユーザーの視線方向を検出することが可能であり、ユーザーの頭部の動きに追従した自由視点画像を提示することができる。
図7には、画像表示システム100において、ユーザーの頭部の動きのみに追従した自由視点画像を描画する処理手順をフローチャートの形式で示している。ユーザーの頭部の動きにのみ追従するとは、すなわち、ユーザーの頭部の姿勢のみを考慮し、身体の姿勢を考慮しないことを意味し、具体的には、描画装置400が頭部動作追跡装置200からの姿勢情報qHのみを入力し、胴体動作追跡装置300からの姿勢情報qBを入力しないことに相当する。
頭部動作追跡装置200内では、センサー部201がユーザーの頭部の姿勢を検出し(ステップS701)、姿勢角演算部202は、その検出結果に基づいて、ユーザーの頭部の姿勢を表すクォータニオンqHを演算して(ステップS702)、送信部203から描画装置400に送信する。
描画装置400は、頭部動作追跡装置200から頭部の姿勢を表すクォータニオンqHを受信するとともに、速度又は変位量など自由視点空間内で移動するための制御信号vが入力される(ステップS703)。例えば、描画装置400でゲームなどの3次元画像を生成する場合には、ゲーム・コントローラーのジョイスティックなどの操作量に応じた制御信号vを入力することになる。また、スマートフォンに操作画面を表示させ、その操作画面をユーザーが操作することにより、制御信号vを入力するようにしてもよい。あるいは、外部に設置されたカメラなどを用いてユーザーの頭部の物理的な位置の移動を検出して、制御信号vとして入力するようにしてもよい。
描画処理部402では、入力された制御信号vに応じて、自由視点空間における移動量ΔHを計算する(ステップS704)。本処理ルーチンでは、胴体動作追跡装置300から取得可能なユーザーの胴体の姿勢情報を利用しないので、制御信号vはユーザーの頭部の姿勢情報qHにのみ紐付け可能であり、移動量ΔHは下式(2)に示すように求められるものとする。但し、下式(2)において、gは、速度又は変位量などを表す制御信号vから姿勢情報を表すクォータニオンqHに基づいて、自由視点空間内における移動量ΔHを算出するための関数とする。
描画処理部402は、自由視点空間内で、現在の地点からユーザーの頭部の姿勢qHの方向(視線方向)に移動量ΔHだけ移動した後の地点pHを計算する(ステップS705)。そして、ユーザーの頭部の姿勢情報qHに紐付けされた地点pHを新たな視点位置とし、その視点位置pHからクォータニオンqHで表される視線方向に見える画像IHをレンダリングして(ステップS706)、表示装置500に表示出力する。ここで生成される自由視点画像IHは、下式(3)に示すように、視点位置pH及び視線方向qHから見える画像を生成する関数fに基づいて生成される。
なお、ユーザーの頭部の姿勢を検出してからその姿勢に追従した画像を表示するまでの間には、頭部動作追跡装置200から描画装置400への姿勢情報を伝送する際に生じる伝送遅延、描画装置400で画像を描画処理する際に生じるレンダリング遅延、描画テータを表示装置500で表示する際に生じるディスプレイ遅延など、さまざまな原因による遅延時間が生じる。そこ遅延時間が長いと、過去の頭部の姿勢に対応した画像を描画することになり、画像が頭部の動作に追従しているという体感を劣化させ、さらにはユーザーに酔いを起こさせることが懸念される。そこで、描画装置400では、遅延時間を考慮した画像補正を行なうようにしてもよい。例えば本出願人に既に譲渡されているPCT/2014/079205号明細書で開示されている画像処理技術を適用してもよい(描画装置400は、遅延時間を予測するとともに、受信した姿勢角データからその遅延時間後の姿勢角データを予測して、予測された遅延時間における画像をレンダリングする)。
図7に示した処理手順によれば、描画装置400では、ユーザーの頭部の姿勢に追従した自由視点画像IHを生成することになる。しかしながら、ユーザーの頭部の姿勢のみを検出し、ユーザーの体の姿勢を無視すると、体の向きに関係なく視線方向に直進するというUI(User Interface)や、ゲームなどのコントローラーによって自由視点空間内の移動方向を決めるという現実空間と乖離した不自然なUIに陥る。つまり頭部のみの姿勢変位検出では、視線を体前方(体の正面方向)と一致させない状態で体前方に空間を移動するという(例えば、頭を横に向けながら前進する)、実空間では自然な行動を映像で表現することができない。その結果、ユーザーは映像に没入しているという感覚を著しく損なう。
これに対し、本実施形態に係る画像表示システム100では、頭部動作追跡装置200で取得されるユーザーの頭部の姿勢情報qHとともに胴体動作追跡装置300で取得されるユーザーの胴体の姿勢情報qBに基づいて、表示装置500で表示する自由視点空間に、ユーザーの視線方向と体の向きを個別に定位することができる。
図8には、自由視点空間にユーザーの視線方向と体の向きを個別に定位する様子を示している。図示のように、頭部動作追跡装置200から供給される姿勢情報qHに基づいて、参照番号801で示す視線方向を定位する。また、胴体動作追跡装置300から供給される姿勢情報qBに基づいて、参照番号802で示す身体の向きを定位する。そして、描画装置400が自由視点画像を描画する際には、身体の向き802を、自由視点空間上での身体の向きとし、ユーザーが正面と認識する方位を得ることができる。
したがって、本実施形態に係る画像表示システム100によれば、視線を体前方(体の正面方向)と一致させない状態で体前方に空間を移動するという(例えば、頭を横に向けながら前進する)、実空間では自然な行動を自由視点画像で表現することが可能となる。その結果、体の向きに関係なく視線方向に移動する(例えば、頭を横に向けながら前進する)というUIや、ゲームなどのコントローラーによって自由視点空間内の移動方向を決めるという現実空間と乖離した不自然なUIに陥ることがなくなる。
図9には、画像表示システム100において、ユーザーの頭部の姿勢と身体の姿勢をともに考慮して自由視点画像を描画する処理手順をフローチャートの形式で示している。
頭部動作追跡装置200内では、センサー部201がユーザーの頭部の姿勢を検出し(ステップS901)、姿勢角演算部202は、その検出結果に基づいて、ユーザーの頭部の姿勢を表すクォータニオンqHを演算して(ステップS902)、送信部203から描画装置400に送信する。
また、胴体動作追跡装置300内では、センサー部301がユーザーの胴体の姿勢を検出し(ステップS911)、姿勢角演算部202は、その検出結果に基づいて、ユーザーの胴体の姿勢を表すクォータニオンqBを演算して(ステップS912)、送信部303から描画装置400に送信する。
そして、描画装置400は、頭部動作追跡装置200から頭部の姿勢を表すクォータニオンqHを受信し、胴体動作追跡装置300から胴体の姿勢を表すクォータニオンqBを受信するとともに、速度又は変位量など自由視点空間内で移動するための制御信号vが入力される(ステップS903)。例えば、描画装置400でゲームなどの3次元画像を生成する場合には、ゲーム・コントローラーのジョイスティックなどの操作量に応じた制御信号vを入力することになる。また、スマートフォンに操作画面を表示させ、その操作画面をユーザーが操作することにより、制御信号vを入力するようにしてもよい。あるいは、外部に設置されたカメラなどを用いてユーザーの頭部の物理的な位置の移動を検出して、制御信号vとして入力するようにしてもよい。
描画処理部402では、入力された制御信号vに応じて、自由視点空間における移動量ΔBを計算する(ステップS904)。本処理ルーチンでは、胴体動作追跡装置300から取得可能なユーザーの胴体の姿勢情報を利用するので、制御信号vはユーザーの胴体の姿勢情報qBに紐付けすることが可能であり、移動量ΔBは下式(4)に示すように求められる。但し、下式(4)において、gは、速度又は変位量などを表す制御信号vから姿勢情報を表すクォータニオンqBに基づいて、自由視点空間内における移動量ΔBを算出するための関数である(同上)。
描画処理部402は、自由視点空間内で、現在の地点からユーザーの胴体の姿勢qBの方向(すなわち、体の正面の方向)に移動量ΔBだけ移動した後の地点pBを計算する(ステップS905)。そして、ユーザーの胴体の姿勢情報qBに紐付けされた地点pBを自由視点空間における視点位置とし、その視点位置pBからクォータニオンqHで表される視線方向に見える画像IBをレンダリングして(ステップS906)、表示装置500に表示出力する。ここで生成される自由視点画像IBは、下式(5)に示すように、視点位置pB及び視線方向qHから見える画像を生成する関数fに基づいて生成される(同上)。
上式(4)は、ユーザーの胴体の姿勢情報qBに基づいて移動量ΔBを算出する。したがって、ステップS905では、ユーザーの頭部の姿勢情報に基づいて移動量qHを算出する上式(2)を用いた場合よりも、より自然な移動後の地点pBを算出することができる。この結果、ステップS906で生成される自由視点画像IBは、図7に示した処理手順に従って生成される自由視点画像IHと比べてより自然なUIとなる。すなわち、視線を体前方(体の正面方向)と一致させない状態で体前方に空間を移動するという(例えば、頭を横に向けながら前進する)、実空間では自然な行動を表現することが可能である。
なお、図9に示した処理手順においても、ユーザーの頭部並びに胴体の姿勢を検出してから画像を表示するまでに生じる遅延時間を考慮して、画像のレンダリングを行なうようにしてもよい(同上)。
本実施形態では、図8を参照しながら説明したように、頭部動作追跡装置200から供給される姿勢情報qHに基づいて、自由視点空間におけるユーザーの視線方向801を定位するとともに、胴体動作追跡装置300から供給される姿勢情報qBに基づいて、自由視点空間におけるユーザーの身体の向き802を定位する。そして、身体の向き802を、ユーザーが正面と認識する方位とする。
図7並びに上式(2)に示したように、頭部の姿勢情報のみを考慮する場合、頭部の姿勢qHすなわち視線の向きにのみ紐付けして自由視点空間内での移動量を計算することになる。この場合、図8上で示すと、ユーザーの正面方向802ではなく視線方向801に向かって自由視点空間を移動する画像となってしまうので、不自然な画像の動きとなる。例えば、ゲーム・コントローラーのジョイスティックなどで、正面方向への移動を指示する制御信号vが入力されたとする。図10には、ユーザーの頭部の動きのみに追従した自由視点画像を示している。図示のように、ユーザーが頭部(視線方向1001)を左に傾けた姿勢では、正面方向1002へ進める指示がコントローラーから入力されたにも拘らず、現在の地点からユーザーの頭部の姿勢qHの方向(視線方向)1001に移動量ΔHだけ進み、その地点pHから視線方向qHに見える画像IHが生成される。すなわち、正面方向への移動が指示されたにも拘らず、視線方向1001へ進むという不自然な画像IHが生成されることになる。
これに対し、図9並びに上式(4)に示したように、頭部及び胴体の姿勢情報を考慮して自由視点空間内での移動量を計算する場合、図8上で示すと、頭部の姿勢情報に基づいて視線方向801を定位するとともに、胴体の姿勢情報に基づいて自由視点空間におけるユーザーの身体の向き802を定位するので、身体の向き802をユーザーが正面の方位と認識して自由視点空間内での移動量を計算することができる。この結果、ユーザーの頭部と身体の動きに追従した自然な自由視点画像を描画することが可能になる。例えば、ゲーム・コントローラーのジョイスティックなどで、正面方向への移動を指示する制御信号vが入力されたとする。
図11には、ユーザーの頭部の姿勢と身体の姿勢を考慮して生成する自由視点画像を示している。図示のように、ユーザーが頭部(視線方向1101)を左に傾けた姿勢では、正面方向1102へ進める指示がコントローラーから入力されると、現在の地点からユーザーの胴体の姿勢qBの方向(すなわち、体の正面の方向)1102に移動量ΔBだけ進み、その地点pBから視線方向qHに見える画像IBが生成される。すなわち、視線方向1101の風景が正面方向1102へ進むという自然な画像IBが生成されることになる。
C.キャリブレーション
上述したように自由視点空間にユーザーの視線方向と体の向きを個別に定位する場合、頭部動作追跡装置200がユーザーの頭部の姿勢を検出する座標系と胴体動作追跡装置300がユーザーの胴体の姿勢を検出する座標系とを対応付けする必要がある。
頭部動作追跡装置200は、例えば表示装置500としてのヘッド・マウント・ディスプレイ内に組み込まれる場合、ユーザーの頭部への取り付け位置はメカニカルにほぼ厳密に規定することができる。何故ならば、ユーザーは左右の眼毎の画像表示部を覗き込むという観点から、着用する度にほぼ一定の位置に取り付けるからである。
一方、胴体動作追跡装置300についても、ユーザーの胴体に取り付ける初期向きをメカニカルに厳密に規定する方法も考えられる。しかしながら、ユーザーが身に付けるボックス600内に胴体動作追跡装置300を格納するような使用態様(例えば、図6を参照のこと)では、ヘッド・マウント・ディスプレイの場合のように取り付け位置を厳密に規定することは難しい。
また、ユーザーの使い易さを考慮すると、胴体動作追跡装置300の取り付け位置を厳密に規定せず、ユーザーが任意に取り付け位置を選べることが好ましい。例えば、ユーザーがポケットに入れた状態や、ベルトに引っ掛けた状態などが想定される。
このため、頭部動作追跡装置200がユーザーの頭部の姿勢を検出する座標系と胴体動作追跡装置300がユーザーの胴体の姿勢を検出する座標系とを相互変換するためのパラメーターを、キャリブレーションによって求める必要がある。頭部動作追跡装置200の取り付け位置が厳密に規定される場合、胴体動作追跡装置300の初期位置をキャリブレーションすればよい。言い換えれば、ユーザーが胴体動作追跡装置300を取り付けた後に1回だけキャリブレーションを実施するようにすれば、胴体動作追跡装置300の取り付け部位を、ユーザーが任意に決めることができる。
キャリブレーションは、ユーザーの頭部と身体が揃って正しく正面を向いている(すなわち、正立している)状態における、頭部動作追跡装置200の検出座標系と胴体動作追跡装置300の検出座標系との対応関係の判定により行なう。また、キャリブレーションを実施するトリガーとして、例えば以下の(a)〜(c)を挙げることができる。
(a)頭部動作追跡装置200又は胴体動作追跡装置300に装備されたトリガー・ボタンをユーザーが操作する。
(b)表示装置 500に表示されたGUI(Graphical User Interface)を介して、ユーザーがキャリブレーションの実行を選択する。
(c)頭部動作追跡装置200又は胴体動作追跡装置300に対してユーザーが特異な入力を行なう(例えば、首を縦に2回振る、頭部動作追跡装置200と胴体動作追跡装置300の回転角速度が同期した瞬間をトリガーとする)。
あるいは、上記(a)〜(c)のようにユーザーにキャリブレーションのトリガー操作を行なわせるのではなく、画像表示システム100において自動的にキャリブレーションを実施するようにしてもよい。
例えば、一定期間ユーザーが正立した姿勢をとるように誘導する画像を表示し(又は、音声で指示し)、その間にキャリブレーションを行なうようにする。
あるいは、ユーザーが自由視点視聴を開始した状態から一定期間の座標系の回転変位を記録し、座標系の回転変位のログ・データと人体の性質から、ユーザーが正立した状態での胴体動作追跡装置300内のセンサー部301の座標系を判定するようにしてもよい。
図12には、画像表示システム100において、キャリブレーション・パラメーターにより補正した姿勢情報を用いて自由視点画像を描画する処理手順をフローチャートの形式で示している。図示の処理手順は、例えばキャリブレーションを実施した後の通常動作時において実行される。
頭部動作追跡装置200内では、センサー部201がユーザーの頭部の姿勢を検出し(ステップS1201)、姿勢角演算部202は、その検出結果に基づいて、ユーザーの頭部の姿勢を表すクォータニオンqHを演算して(ステップS1202)、送信部203から描画装置400に送信する。
また、胴体動作追跡装置300内では、センサー部301がユーザーの胴体の姿勢を検出し(ステップS1211)、姿勢角演算部202は、その検出結果に基づいて、ユーザーの胴体の姿勢を表すクォータニオンqBを演算して(ステップS1212)、送信部303から描画装置400に送信する。
描画装置400は、頭部動作追跡装置200から頭部の姿勢を表すクォータニオンqHを受信するとともに、胴体動作追跡装置300から胴体の姿勢を表すクォータニオンqBを受信する。そして、キャリブレーション・パラメーターとしてのキャリブレーション・クォータニオンqを取得し(ステップS1221)、胴体の姿勢を表すクォータニオンqBをキャリブレーション・クォータニオンqで補正して、補正後のクォータニオンq´Bを得る(ステップS1213)。
キャリブレーション・クォータニオンqは、頭部動作追跡装置200がユーザーの頭部の姿勢を検出する座標系と胴体動作追跡装置300がユーザーの胴体の姿勢を検出する座標系とを相互変換するためのパラメーターであり、キャリブレーションによって求める。姿勢情報がクォータニオンで表記される場合、これを補正するキャリブレーション・パラメーターもクォータニオンの形式で表記されるキャリブレーション・クォータニオンである。ステップS1213では、下式(6)に従って、キャリブレーション・クォータニオンqを左から掛けることによって、胴体の姿勢を表すクォータニオンqBを補正する。
そして、描画装置400は、速度又は変位量など自由視点空間内で移動するための制御信号vが入力される(ステップS1203)。例えば、描画装置400でゲームなどの3次元画像を生成する場合には、ゲーム・コントローラーのジョイスティックなどの操作量に応じた制御信号vを入力することになる。また、スマートフォンに操作画面を表示させ、その操作画面をユーザーが操作することにより、制御信号vを入力するようにしてもよい。あるいは、外部に設置されたカメラなどを用いてユーザーの頭部の物理的な位置の移動を検出して、制御信号vとして入力するようにしてもよい。
描画処理部402では、入力された制御信号vに応じて、自由視点空間における移動量ΔBを計算する(ステップS1204)。本処理ルーチンでは、胴体動作追跡装置300から取得可能なユーザーの胴体の姿勢情報を利用するので、制御信号vはユーザーの胴体の補正後の姿勢情報q´Bに紐付けすることが可能であり、移動量ΔBは下式(7)に示すように求められる。但し、下式(7)において、gは、速度又は変位量などを表す制御信号vから姿勢情報を表す補正後のクォータニオンq´Bに基づいて、自由視点空間内における移動量ΔBを算出するための関数である(同上)。
描画処理部402は、自由視点空間内で、現在の地点からユーザーの胴体の姿勢qBの方向(すなわち、体の正面の方向)に移動量ΔBだけ移動した後の地点pBを計算する(ステップS1205)。そして、ユーザーの胴体の姿勢情報qBに紐付けされた地点pBを自由視点空間における視点位置とし、その視点位置pBからクォータニオンqHで表される視線方向に見える画像IBをレンダリングして(ステップS1206)、表示装置500に表示出力する。ここで生成される自由視点画像IBは、上式(5)に示したように、視点位置pB及び視線方向qHから見える画像を生成する関数fに基づいて生成される(同上)。
なお、図12に示した処理手順においても、ユーザーの頭部並びに胴体の姿勢を検出してから画像を表示するまでに生じる遅延時間を考慮して、画像のレンダリングを行なうようにしてもよい(同上)。
図13には、画像表示システム100において、キャリブレーション・パラメーターにより補正した姿勢情報を用いて自由視点画像を描画する、他の処理手順をフローチャートの形式で示している。図示の処理手順では、キャリブレーションは、上記の(a)〜(c)のような明示的な操作に応じて実施される。
頭部動作追跡装置200内では、センサー部201がユーザーの頭部の姿勢を検出し(ステップS1301)、姿勢角演算部202は、その検出結果に基づいて、ユーザーの頭部の姿勢を表すクォータニオンqHを演算して(ステップS1302)、送信部203から描画装置400に送信する。
また、胴体動作追跡装置300内では、センサー部301がユーザーの胴体の姿勢を検出し(ステップS1311)、姿勢角演算部202は、その検出結果に基づいて、ユーザーの胴体の姿勢を表すクォータニオンqBを演算して(ステップS1312)、送信部203から描画装置400に送信する。
描画装置400では、まず、頭部動作追跡装置200から送られてきたユーザーの頭部の姿勢を表すクォータニオンqHと、胴体動作追跡装置300から送られてきたユーザーの胴体の姿勢を表すクォータニオンqBから、下式(8)を用いてキャリブレーション・クォータニオンqを計算して(ステップS1321)、一時的に格納する。但し、下式(8)において、「qB-1」の上付きの「−1」は、クォータニオン「qB」のインバースを意味するものとする(以下、同様)。
次いで、描画装置400は、上式(6)に従い、キャリブレーション・クォータニオンqを左から掛けることによって、胴体の姿勢を表すクォータニオンqBを補正する(ステップS1313)。
次いで、描画装置400は、速度又は変位量など自由視点空間内で移動するための制御信号vが入力される(ステップS1303)。例えば、描画装置400でゲームなどの3次元画像を生成する場合には、ゲーム・コントローラーのジョイスティックなどの操作量に応じた制御信号vを入力することになる。また、スマートフォンに操作画面を表示させ、その操作画面をユーザーが操作することにより、制御信号vを入力するようにしてもよい。あるいは、外部に設置されたカメラなどを用いてユーザーの頭部の物理的な位置の移動を検出して、制御信号vとして入力するようにしてもよい。
描画処理部402では、制御信号vから自由視点空間における移動量ΔBを計算する(ステップS1304)。本処理ルーチンでは、胴体動作追跡装置300から取得可能なユーザーの胴体の姿勢情報を利用するので、制御信号vはユーザーの胴体の補正後の姿勢情報q´Bに紐付けすることが可能であり、移動量ΔBは上式(7)に従って求められる。
描画処理部402は、自由視点空間内で、現在の地点からユーザーの胴体の姿勢qBの方向(すなわち、体の正面の方向)に移動量ΔBだけ移動した後の地点pBを計算する(ステップS1305)。そして、ユーザーの胴体の姿勢情報qBに紐付けされた地点pBを自由視点空間における視点位置とし、その視点位置pBからクォータニオンqHで表される視線方向に見える画像IBをレンダリングして(ステップS1306)、表示装置500に表示出力する。ここで生成される自由視点画像IBは、上式(5)に示したように、視点位置pB及び視線方向qHから見える画像を生成する関数fに基づいて生成される(同上)。
なお、図13に示した処理手順においても、ユーザーの頭部並びに胴体の姿勢を検出してから画像を表示するまでに生じる遅延時間を考慮して、画像のレンダリングを行なうようにしてもよい(同上)。
図14には、画像表示システム100において、キャリブレーション・パラメーターにより補正した姿勢情報を用いて自由視点画像を描画する、さらに他の処理手順をフローチャートの形式で示している。図示の処理手順では、キャリブレーションは、一定期間の座標系の回転変位と人体の性質に基づいて、自動的に実施されるものとする。
頭部動作追跡装置200内では、センサー部201がユーザーの頭部の姿勢を検出し(ステップS1401)、姿勢角演算部202は、その検出結果に基づいて、ユーザーの頭部の姿勢を表すクォータニオンqHを演算して(ステップS1402)、送信部203から描画装置400に送信する。
また、胴体動作追跡装置300内では、センサー部301がユーザーの胴体の姿勢を検出し(ステップS1411)、姿勢角演算部202は、その検出結果に基づいて、ユーザーの胴体の姿勢を表すクォータニオンqBを演算して(ステップS1412)、送信部203から描画装置400に送信する。
描画装置400では、一定期間の座標系の回転変位と人体の性質に基づいて、キャリブレーション・クォータニオンqを推定する(ステップS1421)。本処理手順では、ある特定の時点でのみキャリブレーション・クォータニオンqを推定するのではなく、常時処理を行なうものとする。ステップS1421においてキャリブレーション・クォータニオンqを推定する方法の詳細については、後述に譲る。
次いで、描画装置400は、上式(6)に従い、キャリブレーション・クォータニオンqを左から掛けて、胴体の姿勢を表すクォータニオンqBを補正する(ステップS1413)。
次いで、描画装置400は、速度又は変位量など自由視点空間内で移動するための制御信号vが入力される(ステップS1403)。例えば、描画装置400でゲームなどの3次元画像を生成する場合には、ゲーム・コントローラーのジョイスティックなどの操作量に応じた制御信号vを入力することになる。また、スマートフォンに操作画面を表示させ、その操作画面をユーザーが操作することにより、制御信号vを入力するようにしてもよい。あるいは、外部に設置されたカメラなどを用いてユーザーの頭部の物理的な位置の移動を検出して、制御信号vとして入力するようにしてもよい。
描画処理部402では、制御信号vから自由視点空間における移動量ΔBを計算する(ステップS1404)。本処理ルーチンでは、胴体動作追跡装置300から取得可能なユーザーの胴体の姿勢情報を利用するので、制御信号vはユーザーの胴体の補正後の姿勢情報q´Bに紐付けすることが可能であり、移動量ΔBは上式(7)に示すように求められる(同上)。
描画処理部402は、自由視点空間内で、現在の地点からユーザーの胴体の姿勢qBの方向(すなわち、体の正面の方向)に移動量ΔBだけ移動した後の地点pBを計算すると(ステップS1405)。そして、ユーザーの胴体の姿勢情報qBに紐付けされた地点pBを自由視点空間における視点位置とし、その視点位置pBからクォータニオンqHで表される視線方向に見える画像IBをレンダリングして(ステップS1406)、表示装置500に表示出力する。ここで生成される自由視点画像IBは、上式(5)に示したように、視点位置pB及び視線方向qHから見える画像を生成する関数fに基づいて生成される(同上)。
なお、図14に示した処理手順においても、ユーザーの頭部並びに胴体の姿勢を検出してから画像を表示するまでに生じる遅延時間を考慮して、画像のレンダリングを行なうようにしてもよい(同上)。
図15には、図14に示したフローチャート中のステップS1421で実施されるオート・キャリブレーションの処理手順をフローチャートの形式で示している。図示の処理手順では、一定期間の座標系の回転変位と人体の性質に基づいて、キャリブレーション・パラメーターqを推定する。本処理手順は、画像表示システム100内の任意の装置200〜500で実施することができるが、以下では便宜上、描画装置400で実施するものとして説明する。
描画装置400は、頭部動作追跡装置200から送信されるユーザーの頭部の姿勢を表すクォータニオンqHと、胴体動作追跡装置300から送信されるユーザーの胴体の姿勢を表すクォータニオンqBを、時系列データとして常時入力する(ステップS1501)。
そして、下式(9)に従って、頭部動作追跡装置200及び胴体動作追跡装置300がそれぞれ新たに検出する姿勢情報のクォータニオンに基づいて、新規のキャリブレーション・クォータニオンq´を計算して、遂次記録する(ステップS1502)。
ユーザーの頭部と胴体が揃って正しく正面を向いている瞬間に検出されたクォータニオンqH、qBによって算出されたキャリブレーション・クォータニオンq´は、正しいキャリブレーション・クォータニオンになる。そこで、本処理手順では、ユーザーの頭部及び胴体の姿勢を長期間測定すると、平均的には頭部と身体が揃って正しく正面を向いていることが多いという仮定に基づいて、ステップS1502で記録したキャリブレーション・クォータニオンq´の時系列の平均をとって、最終的なキャリブレーション・クォータニオンqを計算して(ステップS1503)、出力する(ステップS1504)。
図13に示したように明示的な操作に応じてキャリブレーションが実施される場合と相違し、図15に示す処理手順では、キャリブレーション・クォータニオンqは固定値ではなく時々刻々変動し、ユーザーが立ったり座ったりといったセンサー部201、301への外乱要因を排除することができる。
ステップS1502において、キャリブレーション・クォータニオンq´の時系列の平均化により、最終的なキャリブレーション・クォータニオンを更新する際、更新前のキャリブレーション・クォータニオンqprevと、新規に計算したキャリブレーション・クォータニオンq´を補間して、更新後のキャリブレーション・クォータニオンqupdatedを求める。
姿勢を表すクォータニオンは、3次元球面上の1点として記述される。そこで、下式(10)並びに図22に示すように、クォータニオンqprevとq´の間を3次元球面上で線形補間する球面線形補間Slerpにより、更新後のキャリブレーション・パラメーターqupdatedを計算することができる。
上式(10)では、更新前のキャリブレーション・パラメーターqprevを重み(1−δ)で、新規の計算値q´をδで、それぞれ重み付けして、重み平均して更新後のキャリブレーション・パラメーターqupdatedを求めている(外挿ではなく内挿)。例えば、重み係数δ=0.01である。初回だけは重み1でqupdatedが更新される。このため、起動時にユーザーが正しい姿勢をとっていると(頭部と身体が揃って正しく正面を向いている)、収束が早い。
Slerpの演算は、上式(10)に示したように、2項関係でのみ定義される。このため、多数のクォータニオンを同時に扱って平均を計算するのには適さない(上述したように、クォータニオンqupdatedを順次更新することはできる)。この問題を解決する(すなわち、多数のクォータニオンを同時に扱って平均を計算する)ために、対数空間での加算平均を考える。単位ベクトルuを用いて、u回りに角度θの回転を表すクォータニオンqは、下式(11)のように表すことができる。その対数をとると、下式(12)に示す通りとなる。
したがって、キャリブレーション・クォータニオンの時系列{q´}を対数変換によって3次元空間に写像し、そこで加算平均などの代表値を算出した後、下式(13)に示すように、指数変換によってクォータニオンに戻せばよい。なお、加算平均を計算する際、外れ値の除去など必要な処理を適宜行なうものとする。
図16には、図14に示したフローチャート中のステップS1421で実施されるオート・キャリブレーションの他の処理手順をフローチャートの形式で示している。図示の処理手順では、一定期間の座標系の回転変位と人体の性質に基づいて、キャリブレーション・パラメーターqを推定する。但し、ユーザーの頭部姿勢と胴体の姿勢が重力方向を共通軸として持っているケースを想定し、各センサー部201、301が重力方向を検出して自動キャリブレーションを行なう機能を持つことを前提とする。本処理手順は、画像表示システム100内の任意の装置200〜500で実施することができるが、以下では便宜的に描画装置400で実施するものとして説明する。
描画装置400は、頭部動作追跡装置200から送信されるユーザーの頭部の姿勢を表すクォータニオンqHと、胴体動作追跡装置300から送信されるユーザーの胴体の姿勢を表すクォータニオンqBを、時系列データとして常時入力する(ステップS1601)。
ユーザーの頭部姿勢と胴体の姿勢が重力方向を共通軸として持っており、座標系のずれはθという1つパラメーターだけに集約される。そこで、ユーザーの頭部の姿勢を表すクォータニオンqHとユーザーの胴体の姿勢を表すクォータニオンqBの、重力方向を回転軸としたときの回転方向の角度差分θ(t)を計算して、遂次記録する(ステップS1602)。
そして、角度差分θ(t)の平均値を算出して、その計算結果を、頭部動作追跡装置200のセンサー部201と胴体動作追跡装置300のセンサー部301の取り付け位置のずれ量であると推定する(ステップS1603)。
そこで、重力方向と、角度差分θ(t)の平均値に基づいて、キャリブレーション・クォータニオンqを計算して(ステップS1604)、出力する(ステップS1605)。
ステップS1604では、ユーザーの胴体の姿勢のクォータニオンqBを頭部の姿勢のクォータニオンqHと同じ座標系での表現に変換するためのキャリブレーション・クォータニオンを計算するものとする。
図16に示す処理手順では、キャリブレーション・クォータニオンqは固定値ではなく時々刻々変動し、ユーザーが立ったり座ったりといったセンサー部201、301への外乱要因を排除することができる(同上)。
なお、ステップS1603では、角度差分θ(t)の単純平均を計算する以外にも、以下の(d)〜(g)のいずれかの計算方法を用いるようにしてもよい。
(d)度数分布の中央値
(e)外れ値を除去した上での平均値
(f)速度、加速度データを判定材料に併用
(g)頭部回転の限界値を判定材料に併用
(f)として挙げた「速度、加速度データを判定材料に併用」は、自由視点空間内を一定範囲の速度・加速度で運動しているときのデータのみを使用する。また、長時間静止している場合は、サンプルに含めない。
また、(g)として挙げた「頭部回転の限界値を判定材料に併用」は、例えば、限界値θ_thを仮に120度として、測定データ中の角度差分の最大値をθ_max、最小値をθ_minとすると、[θ_max−θ_th,θ_min+θ_th]の範囲のデータのみを使って、角度差分θ(t)の平均を計算する。
D.生体安全対応
ヘッド・マウント・ディスプレイなどの表示装置500で提示する自由視点空間内で、ユーザーが注視点を初期位置から90度以上動かして後方を見ようとする場合、ユーザーは以下の(A)、(B)の2通りの動作を取り得る。
(A)頭部のみを90度回転させる。
(B)体ごと90度回転させる。
ユーザーの頭部の姿勢のみを検出して自由視点画像を描画する場合、ユーザーが上記の(A)又は(B)のうちいずれの動作を行なったかを判定することができない。動作(A)は、無理な姿勢であり、人体への影響が懸念され、製品安全上の問題がある。
これに対し、本実施形態に係る画像表示システム100では、上述したように、頭部動作追跡装置200で取得されるユーザーの頭部の姿勢情報qHとともに胴体動作追跡装置300で取得されるユーザーの胴体の姿勢情報qBを利用するので、ユーザーが上記の(A)又は(B)のうちいずれの動作を行なったかを判定することができる。そこで、動作の判定結果に基づいて、自由視点視聴に起因する頭部の不自然な視聴姿勢を軽減又は回避する仕組みを導入することができる。
例えば、ユーザーの不自然な視聴姿勢を軽減又は回避する第1の方法として、ユーザーの頭部が正常な位置に戻るような画像表示を行なうようにしてもよい。ユーザーの頭部及び胴体の姿勢情報qH、qBから、首や胴体を極端に捻ったような、ユーザーにとって無理な姿勢を伴う動作(A)の状態が一定時間続いたと判定されると、ユーザーには分からないゆっくりした速度で、ユーザーの頭部が胴体の正面方向を向く元の位置に戻るような画像表示を行なう。図17には、画像の注視点1701を移動して、ユーザーの視線方向1702が胴体の正面方向を向く元の位置に戻るように、自由視点画像を移動させている様子を示している。
図9、図12、図13、図14に示した処理手順は、頭部動作追跡装置200並びに胴体動作追跡装置300で実際に検出された頭部姿勢qH、胴体姿勢qBをそのまま自由視点空間の世界座標系にマッピングして自由視点画像をレンダリングするものである。これに対し、ユーザーの不自然な視聴姿勢を軽減又は回避する第1の方法では、ユーザーが自由視点画像を視聴している際に、頭部が胴体に対し大きく捻じれるという無理な姿勢になった場合に、自由視点空間内の頭部姿勢qH*と胴体姿勢qB*の差分が小さくなるように自由視点空間の世界座標系を補正していくことで、現実空間においてもユーザーの頭部姿勢qHと胴体姿勢qBの差分が小さくなるように促す。
若しくは、ユーザーの不自然な視聴姿勢を軽減又は回避する第2の方法として、頭部の動きへの追従(ヘッド・トラッキング)を自動的に解除するようにしてもよい。ユーザーにとって無理な姿勢を伴う動作(A)の状態が一定時間続いたと判定されると、頭部の動きへの追従(ヘッド・トラッキング)を自動的に解除して、注視点を正面に表示したままユーザーの頭部が胴体の正面方向を向く元の姿勢に戻させ、新たな座標合わせを行なうようにする。また、ヘッド・トラッキングを自動で解除するのではなく、ボタンを押すなどユーザーの能動的な操作に応じて解除するようにしてもよい。
ユーザーの不自然な視聴姿勢を軽減又は回避する第2の方法では、自由視点空間内の頭部姿勢をヘッド・トラッキングの解除が指示された時点で固定することによって、注視点を正面に表示したままにする。そして、ヘッド・トラッキングが解除されている期間中、頭部動作追跡装置200が検出した頭部姿勢qHに応じて(すなわち、ユーザーが首を動かしたと同じ量だけ)、自由視点空間内の胴体の姿勢を変化させる。これによって、ユーザーの頭部が胴体の正面方向を向く元の姿勢に戻るように促す。
図18には、第1の方法によりユーザーの不自然な視聴姿勢を軽減又は回避する処理を含んだ、自由視点画像の描画処理手順をフローチャートの形式で示している。この処理は、自由視点空間の世界座標系を補正することにより実現される。図18では図示を省略するが、世界座標系に対する補正を表すクォータニオンqWの初期値を単位クォータニオンに設定しておく。
頭部動作追跡装置200内では、センサー部201がユーザーの頭部の姿勢を検出し(ステップS1801)、姿勢角演算部202は、その検出結果に基づいて、ユーザーの頭部の姿勢を表すクォータニオンqHを演算して(ステップS1802)、送信部203から描画装置400に送信する。
また、胴体動作追跡装置300内では、センサー部301がユーザーの胴体の姿勢を検出し(ステップS1811)、姿勢角演算部202は、その検出結果に基づいて、ユーザーの胴体の姿勢を表すクォータニオンqBを演算して(ステップS1812)、送信部303から描画装置400に送信する。
描画装置400は、頭部動作追跡装置200から頭部の姿勢を表すクォータニオンqHを受信するとともに、胴体動作追跡装置300から胴体の姿勢を表すクォータニオンqBを受信する。そして、キャリブレーション・パラメーターとしてのキャリブレーション・クォータニオンqを取得し(ステップS1821)、胴体の姿勢を表すクォータニオンqBをキャリブレーション・クォータニオンqで補正して、補正後の胴体姿勢のクォータニオンq´Bを得る(ステップS1813)。
キャリブレーション・クォータニオンqは、頭部動作追跡装置200がユーザーの頭部の姿勢を検出する座標系と胴体動作追跡装置300がユーザーの胴体の姿勢を検出する座標系とを相互変換するためのパラメーターである(前述)。キャリブレーション・クォータニオンqの取得方法は任意である。ステップS1813では、上式(6)に従って、キャリブレーション・クォータニオンqを左から掛けることによって、胴体の姿勢を表すクォータニオンqBを補正する。
次いで、頭部動作追跡装置200から受信した頭部姿勢のクォータニオンqHと補正後の胴体姿勢のクォータニオンq´Bに基づいて、当該画像表示システム100が生体安全対応モードか否かをモード判定する(ステップS1831)。モード判定の方法は任意である。例えば、以下の条件(C1)〜(C3)に従って、モード判定を行なうものとする。
(C1)初期状態では生体安全対応モードをオフとする。
(C2)生体安全対応モードがオフで、ユーザーの頭部と胴体の姿勢の差分ψが第1の閾値ψth1を超えた状態が一定時間継続すると、生体安全対応モードをオンにする。
(C3)生体安全対応モードがオンのときに、ユーザーの頭部と胴体の姿勢の差分ψが第2の閾値ψth2を下回ると、生体安全対応モードをオフにする。
ここで、上記の(C2)において、ユーザーの頭部と胴体の姿勢の差分ψは、頭部姿勢のクォータニオンqHと補正後の胴体姿勢のクォータニオンq´Bを用いて、下式(14)により計算することができる。
上式(14)により算出した頭部と胴体の姿勢の差分ψを、各閾値ψth1、ψth2と大小比較することで、生体安全対応モードに入るべきか否かを判定することができる。但し、上記の条件(C1)〜(C3)に従って、自動的に生体安全対応モードのオン/オフを切り換えるのではなく、ユーザーが自分の姿勢が苦しくなったときに能動的に(若しくはマニュアル操作で)生体安全対応モードのオン/オフを切り換えるようにしてもよい。
そして、生体安全対応モード下では(ステップS1831のYes)、自由視点空間内の頭部姿勢と胴体姿勢の差分が小さくなるように、自由視点空間の世界座標系に対して補正を行なう(ステップS1832)。また、生体安全対応モードでなければ(ステップS1831のNo)、世界座標系の補正処理をスキップする。
ステップS1832で行なう世界座標系の補正とは、世界座標系を少しずつ回転させて、頭部の姿勢を胴体の姿勢に近づける操作に相当する。世界座標系に対する補正を表すクォータニオンをqWとすると、下式(15)に示すように、胴体の姿勢に近づけるクォータニオンδを左から掛けることにより、世界座標系に対する補正クォータニオンqWをアップデートする。なお、世界座標系に対する補正クォータニオンqWの初期値は単位クォータニオンとする(前述)。
また、胴体の姿勢に少しずつ近づけるクォータニオンδは、例えば下式(16)に示すように、頭部姿勢と胴体姿勢の差分を表すクォータニオンをn分割したクォータニオンである。ここで言うnは、ユーザーが観察して煩わしくない(若しくは、気づかない)程度にするための分割数である。あるいは、胴体の姿勢に少しずつ近づけるクォータニオンδは、例えば下式(17)に示すように、頭部姿勢と胴体姿勢の差分を正規化したクォータニオンに微小なスカラーεを乗算したクォータニオンでもよい。
上式(16)を用いて世界座標系を補正すると、毎回補正量が変化するため、変化が大きいと不自然な動きとして観察されるおそれがある。これに対し、上式(17)を用いて世界座標系を補正すると、毎回の補正量を一定にすることができる。
そして、ステップS1802で算出した頭部の姿勢のクォータニオンqHと、ステップS1813で補正した後の胴体の姿勢のクォータニオンq´Bの各々の左側からクォータニオンqWを掛けて、自由視点空間内での頭部姿勢qH*び胴体姿勢q´B*をそれぞれ補正することで(ステップS1833、S1834)、世界座標系を少しずつ回転させて、頭部の姿勢を胴体の姿勢に近づける操作を実施する。
また、描画装置400は、速度又は変位量など自由視点空間内で移動するための制御信号vが入力される(ステップS1803)。例えば、描画装置400でゲームなどの3次元画像を生成する場合には、ゲーム・コントローラーのジョイスティックなどの操作量に応じた制御信号vを入力することになる。また、スマートフォンに操作画面を表示させ、その操作画面をユーザーが操作することにより、制御信号vを入力するようにしてもよい。あるいは、外部に設置されたカメラなどを用いてユーザーの頭部の物理的な位置の移動を検出して、制御信号vとして入力するようにしてもよい。
次いで、描画処理部402では、世界座標系をクォータニオンqWで補正した自由視点空間における胴体姿勢q´B*に基づいて、入力された制御信号vに応じた移動量ΔB*を下式(18)により計算する(ステップS1804)。但し、下式(18)において、gは、速度又は変位量などを表す制御信号vから姿勢情報を表す補正後のクォータニオンq´B*に基づいて、自由視点空間内における移動量ΔB*を算出するための関数である(同上)。
次いで、描画処理部402は、自由視点空間内で、現在の地点からユーザーの胴体の姿勢qBの方向(すなわち、体の正面の方向)に移動量ΔB*だけ移動した後の地点pB*を計算する(ステップS1805)。そして、補正後のユーザーの胴体の姿勢情報qB*に紐付けされた地点pB*を自由視点空間における視点位置とし、その視点位置pB*から補正後の頭部姿勢のクォータニオンqH*で表される視線方向に見える画像IB*をレンダリングして(ステップS1806)、表示装置500に表示出力する。ここで生成される自由視点画像IB*は、視点位置pB*及び視線方向qH*から見える画像を生成する関数fに基づいて生成される(同上)。
なお、図18に示した処理手順においても、ユーザーの頭部並びに胴体の姿勢を検出してから画像を表示するまでに生じる遅延時間を考慮して、画像のレンダリングを行なうようにしてもよい(同上)。
図19及び図20には、第1の方法によりユーザーの不自然な視聴姿勢を軽減又は回避する処理を含んだ、自由視点画像の描画処理手順をフローチャートの形式で示している。この処理は、自由視点空間の世界座標系を補正することにより実現される。図19及び図20では図示を省略するが、世界座標系に対する補正を表すクォータニオンqWの初期値を単位クォータニオンに設定しておく。
頭部動作追跡装置200内では、センサー部201がユーザーの頭部の姿勢を検出し(ステップS1901)、姿勢角演算部202は、その検出結果に基づいて、ユーザーの頭部の姿勢を表すクォータニオンqHを演算して(ステップS1902)、送信部203から描画装置400に送信する。
また、胴体動作追跡装置300内では、センサー部301がユーザーの胴体の姿勢を検出し(ステップS1911)、姿勢角演算部202は、その検出結果に基づいて、ユーザーの胴体の姿勢を表すクォータニオンqBを演算して(ステップS1912)、送信部303から描画装置400に送信する。
描画装置400は、頭部動作追跡装置200から頭部の姿勢を表すクォータニオンqHを受信するとともに、胴体動作追跡装置300から胴体の姿勢を表すクォータニオンqBを受信する。そして、キャリブレーション・パラメーターとしてのキャリブレーション・クォータニオンqを取得し(ステップS1921)、胴体の姿勢を表すクォータニオンqBをキャリブレーション・クォータニオンqで補正して、補正後の胴体姿勢のクォータニオンq´Bを得る(ステップS1913)。
キャリブレーション・クォータニオンqは、頭部動作追跡装置200がユーザーの頭部の姿勢を検出する座標系と胴体動作追跡装置300がユーザーの胴体の姿勢を検出する座標系とを相互変換するためのパラメーターである(前述)。キャリブレーション・クォータニオンqの取得方法は任意である。ステップS1913では、上式(6)に従って、キャリブレーション・クォータニオンqを左から掛けることによって、胴体の姿勢を表すクォータニオンqBを補正する。
次いで、当該画像表示システム100が生体安全対応モードに入ったか否かを判定する(ステップS1941)。生体安全対応モードに入ったか否かは、例えば、上式(14)に従って算出される頭部と胴体の姿勢の差分ψが所定の閾値を超えたか否かにより自動判別するようにしてもよい。あるいは、ユーザーが能動的に(若しくはボタンを押すなどのマニュアル操作により)ヘッド・トラッキングの解除を指示したか否かにより判別するようにしてもよい。
ここで、生体安全対応モードに入ったときには(ステップS1941のYes)、現在そのモードに入った瞬間か否かをさらにチェックし(ステップS1942)、入った瞬間のユーザーの頭部の姿勢qHをqH0として保存する(ステップS1943)。
そして、生体安全対応モードの期間中は、新しく検出・演算された頭部姿勢のクォータニオンqHをqH0に置き換えることで、自由視点空間内の頭部姿勢を固定することで、レンダリング時にヘッド・トラッキングされないようにする。また、ステップS1913で補正された後の胴体姿勢のクォータニオンq´Bを下式(19)に従って置き換えることで、頭部動作追跡装置200が検出する頭部姿勢qHの変化量だけ自由視点空間内の胴体の姿勢q´Bを変化させるようにする(ステップS1944)。具体的には、胴体の姿勢q´Bの左側から現在の頭部姿勢のクォータニオンqHのインバース、ヘッド・トラッキングを解除した瞬間の頭部姿勢のクォータニオンqH0を順に掛けて、頭部姿勢の変化を胴体の姿勢で補償する。
一方、生体安全対応モードに入っていないときには(ステップS1941のNo)、生体安全対応モードから出た瞬間か否かを判別する(ステップS1945)。そして、生体安全対応モードから出た瞬間であれば(ステップS1945のYes)、生体安全対応モードの期間中における現実の頭部姿勢の変化を補償すべく、下式(20)を用いて、世界座標系に対して補正を行なうクォータニオンqWを更新する(ステップS1946)。具体的には、クォータニオンqWの左側から現在の頭部姿勢のクォータニオンqHのインバース、ヘッド・トラッキングを解除した瞬間の頭部姿勢のクォータニオンqH0を順に掛けて、頭部姿勢の変化を胴体の姿勢で補償する。
次いで、頭部の姿勢のクォータニオンqHと、胴体の姿勢のクォータニオンq´Bの各々の左側からクォータニオンqWを掛けて、自由視点空間内での頭部姿勢qH*び胴体姿勢q´B*をそれぞれ補正することで(ステップS1947、S1948)、世界座標系を少しずつ回転させて、頭部の姿勢を胴体の姿勢に近づける操作を実施する。
また、描画装置400は、速度又は変位量など自由視点空間内で移動するための制御信号vが入力される(ステップS1903)。例えば、描画装置400でゲームなどの3次元画像を生成する場合には、ゲーム・コントローラーのジョイスティックなどの操作量に応じた制御信号vを入力することになる。また、スマートフォンに操作画面を表示させ、その操作画面をユーザーが操作することにより、制御信号vを入力するようにしてもよい。あるいは、外部に設置されたカメラなどを用いてユーザーの頭部の物理的な位置の移動を検出して、制御信号vとして入力するようにしてもよい。
次いで、描画処理部402では、世界座標系をクォータニオンqWで補正した自由視点空間における胴体姿勢q´B*に基づいて、入力された制御信号vに応じた移動量ΔB*を上式(18)により計算する(ステップS1904)。
次いで、描画処理部402は、自由視点空間内で、現在の地点からユーザーの胴体の姿勢qBの方向(すなわち、体の正面の方向)に移動量ΔB*だけ移動した後の地点pB*を計算する(ステップS1905)。そして、補正後のユーザーの胴体の姿勢情報qB*に紐付けされた地点pB*を自由視点空間における視点位置とし、その視点位置pB*から補正後の頭部姿勢のクォータニオンqH*で表される視線方向に見える画像IB*をレンダリングして(ステップS1906)、表示装置500に表示出力する。ここで生成される自由視点画像IB*は、視点位置pB*及び視線方向qH*から見える画像を生成する関数fに基づいて生成される(同上)。
なお、図19及び図20に示した処理手順においても、ユーザーの頭部並びに胴体の姿勢を検出してから画像を表示するまでに生じる遅延時間を考慮して、画像のレンダリングを行なうようにしてもよい(同上)。
このように、本実施形態に係る画像表示システム100では、頭部動作追跡装置200で取得されるユーザーの頭部の姿勢情報qHとともに胴体動作追跡装置300で取得されるユーザーの胴体の姿勢情報qBを利用することによって、自由視点視聴に起因する頭部の不自然な視聴姿勢を軽減又は回避することができる。
E.自由視点画像のメタ情報の表示
自由視点画像コンテンツとして、既存のTV放送の他、自動車やラジコンなどの移動体装置に搭載された広角カメラで撮影した画像、一人称視点のゲーム画像などを挙げることができる。
ユーザーは、視聴中の自由視点画像コンテンツに関わるメタ情報を参照したいことがある。ここで言うメタ情報として、コンテンツの再生位置や再生残り時間の情報、仮想空間内における現在の自分の位置を示す座標や地図の情報、ゲームにおいて自分が操作しているキャラクターの状態(例えば、対戦型ゲームにおける自己の疲労度や怪我の具合、武器や弾薬の残存数、これまでに獲得した戦利品、スコアなど)を挙げることができる。
また、自由視点画像を視聴中のユーザーは、視界が外界から閉ざされ、又は、仮想世界に没入していることから、上述したようなメタ情報ではなく、現実世界の情報を参照したいことがある。現実世界の情報として、現在時刻やその他の環境情報、メールや電話の着信通知などを挙げることができる。
このようなコンテンツのメタ情報や現実世界の情報を記載したUI(Use r Interface)部品を自由視点画像内に表示することで、ユーザーは自由視点画像の視聴を中断することなく、所望するメタ情報や現実世界の情報を確認することができる。
このようなUI部品を、ユーザーの頭部の姿勢のみを考慮して配置する、すなわち、頭部姿勢に基づいて定位した固定位置にUI部品を配置すると、自由視点画像がユーザーの頭部姿勢すなわち視線方向に追従するだけでなく、UI部品が同じ場所に表示され続けることになる。
UI部品が常に同じ場所に表示されると、ユーザーは視聴中いつでもメタ情報や現実世界の情報を確認することができる。しかしながら、頭部姿勢の動きに伴って自由視点画像が変化していくのに対し、UI部品が常に同じ場所にあるのは不自然であり、臨場感や没入感を大きく損なうことになる。また、UI部品が配置されている場所は、本来の自由視点画像の情報が掛けてしまうので、ユーザーに見え難さや、ゲームのプレイのし難さ感じさせてしまう。また、ユーザーは、メタ情報や現実世界の情報を見たくない時間帯もあり、UI部品が表示されていることで鬱陶しさを感じさせてしまうこともある。
図25並びに図26には、頭部動作追跡装置200から得られるユーザーの頭部姿勢に基づいて定位した固定位置にUI部品を配置した場合の自由視点画像の表示例を示している。
図25に示す例では、ユーザーの頭部は正面を向いており、参照番号2501で示すように、UI部品はユーザーの頭部の正面方向に配置されるとする。したがって、この場合の自由視点画像2500内には、参照番号2502で示すようにUI部品が映る。
また、図26に示す例では、ユーザーはお辞儀をした格好であり、頭部は下方を向いている。この場合も、参照番号2601で示すように、UI部品はユーザーの頭部の正面方向に配置される。したがって、この場合の自由視点画像2600内にも参照番号2602で示すようにUI部品が映る。すなわち、ユーザーの頭部姿勢に拘わらず、UI部品は常に自由視点画像内に存在することになる。
また、図27並びに図28には、頭部動作追跡装置200から得られるユーザーの頭部姿勢に基づいて定位した固定位置にUI部品を配置した場合の自由視点画像の他の表示例を示している。
図27に示す例では、ユーザーの頭部は正面を向いており、参照番号2701で示すように、UI部品はユーザーの頭部の正面方向に配置されるとする。したがって、この場合の自由視点画像2700内には、参照番号2702で示すようにUI部品が映る。
また、図28に示す例では、ユーザーは左に振り向いた格好であり、頭部は左側を向いている。この場合も、参照番号2801で示すように、UI部品はユーザーの頭部の正面方向に配置される。したがって、この場合の自由視点画像2800内にも参照番号2802で示すようにUI部品が映る。すなわち、ユーザーの頭部姿勢に拘わらず、UI部品は常に自由視点画像内に存在することになる。
一方、図29並びに図30には、胴体動作追跡装置300から得られるユーザーの胴体姿勢に基づいて定位した固定位置にUI部品を配置した場合の自由視点画像の表示例を示している。
図29に示す例では、ユーザーの頭部は正面を向いているが、参照番号2901で示すように、UI部品はユーザーの胴体の正面方向に配置されるとする。したがって、この場合の自由視点画像2600内にはUI部品が存在しない。
また、図30に示す例では、ユーザーはお辞儀をした格好であり、頭部は下方を向いている。この場合も、参照番号3001で示すように、UI部品はユーザーの胴体の正面方向に配置される。したがって、ユーザーが頭部を下方に向けることによって、自由視点画像3000内には、参照番号3002で示すようにUI部品が出現する。
すなわち、ユーザーが頭部を正面に向けた通常の姿勢ではUI部品は隠れているが、頭部を下方に傾けることによって、自由視点画像内でUI部品を表示させることができる。なお、立体的なUI部品の場合には、ユーザーの胴体姿勢に基づいて固定位置に定位したUI部品の姿勢を、ユーザーの頭部姿勢に合わせて正面に向くように姿勢を補正して、自由視点画像内に配置するようにしてもよい。
また、図31並びに図32には、胴体動作追跡装置300から得られるユーザーの胴体姿勢に基づいて定位した固定位置にUI部品を配置した場合の自由視点画像の他の表示例を示している。
図31に示す例では、ユーザーの頭部は正面を向いているが、参照番号3101で示すように、UI部品はユーザーの胴体の左方向に配置されるとする。したがって、この場合の自由視点画像3100内にはUI部品が存在しない。
また、図32に示す例では、ユーザーは左に振り向いた格好であり、頭部は左側を向いている。この場合、参照番号3201で示すように、UI部品はユーザーの胴体の左方向に配置される。したがって、ユーザーが頭部を左に向けることによって、自由視点画像3200内には、参照番号3202で示すようにUI部品が出現する。
すなわち、ユーザーが頭部を正面に向けた通常の姿勢ではUI部品は隠れているが、左側に振り向くことによって、自由視点画像内でUI部品を表示させることができる。なお、立体的なUI部品の場合には、ユーザーの胴体姿勢に基づいて固定位置に定位したUI部品の姿勢を、ユーザーの頭部姿勢に合わせて正面に向くように姿勢を補正して、自由視点画像内に配置するようにしてもよい。
図23には、ユーザーの胴体姿勢に基づいて定位した固定位置にUI部品を配置して、自由視点画像を描画する処理手順をフローチャートの形式で示している。
頭部動作追跡装置200内では、センサー部201がユーザーの頭部の姿勢を検出し(ステップS2301)、姿勢角演算部202は、その検出結果に基づいて、ユーザーの頭部の姿勢を表すクォータニオンqHを演算して(ステップS2302)、送信部203から描画装置400に送信する。
また、胴体動作追跡装置300内では、センサー部301がユーザーの胴体の姿勢を検出し(ステップS2311)、姿勢角演算部202は、その検出結果に基づいて、ユーザーの胴体の姿勢を表すクォータニオンqBを演算して(ステップS2312)、送信部303から描画装置400に送信する。
次いで、描画装置400は、上述したコンテンツのメタ情報や現実世界の情報を入力すると(ステップS2321)、ユーザーの胴体の姿勢を表すクォータニオンqBに基づくユーザーの胴体座標系上で定位される固定位置に、入力した情報を表示するUI部品を配置する(ステップS2313)。次いで、描画処理部402は、ユーザーの胴体座標系上で配置したUI部品を、ユーザーの頭部の姿勢を表すクォータニオンqHに基づく頭部座標系上の位置及び姿勢に変換する(ステップS2314)。
ここで、i番目のUI部品のユーザーの胴体座標系における位置をpi、姿勢をqiとすると、それぞれ下式(21)及び(22)に従って、ユーザーの頭部座標系における位置p´i及び姿勢q´iに変換することができる。
但し、上式(21)において、pBHは、ユーザーの頭部座標系の原点から見たユーザーの胴体座標系の原点の位置である。頭部や胴体部の位置情報を(姿勢情報に加えて)取得できる場合は、pBHに実際の計測値を使用してもよい。例えば、日本人の成人男性の平均値などを利用して、pBH=(0m,0m,−0.75m)などと固定パラメーター化してもよい。
また、上式(22)の右辺のqBH-1は、ユーザーの胴体部の姿勢を表すクォータニオンqBの右側から頭部の姿勢を表すクォータニオンqHのインバースを掛けたもので、胴体部座標系における物体(UI部品)の姿勢を頭部座標系における姿勢に変換するクォータニオンである。
そして、描画処理部402は、UI部品が配置された自由視点空間をクォータニオンqHで表される視線方向に見える画像をレンダリングして(ステップS2315)、表示装置500に表示出力する。
なお、図23に示した処理手順においても、ユーザーの頭部並びに胴体の姿勢を検出してから画像を表示するまでに生じる遅延時間を考慮して、画像のレンダリングを行なうようにしてもよい(同上)。
また、図23に示したフローチャートでは省略したが、C項で説明したキャリブレーション処理を適用して、頭部動作追跡装置200が検出するユーザーの頭部姿勢の座標系と胴体動作追跡装置300が検出するユーザーの胴体姿勢の座標系との対応付けを行なうようにしてもよい。
図24には、ユーザーの胴体姿勢に基づいて定位した固定位置にUI部品を配置して、自由視点画像を描画する処理手順の他の例をフローチャートの形式で示している。図24に示す処理手順は、自由視点空間におけるユーザーの視点位置をユーザーの胴体姿勢に基づいて制御する点で、図23に示した処理手順とは相違する。
頭部動作追跡装置200内では、センサー部201がユーザーの頭部の姿勢を検出し(ステップS2401)、姿勢角演算部202は、その検出結果に基づいて、ユーザーの頭部の姿勢を表すクォータニオンqHを演算して(ステップS2402)、送信部203から描画装置400に送信する。
また、胴体動作追跡装置300内では、センサー部301がユーザーの胴体の姿勢を検出し(ステップS2411)、姿勢角演算部202は、その検出結果に基づいて、ユーザーの胴体の姿勢を表すクォータニオンqBを演算して(ステップS2412)、送信部303から描画装置400に送信する。
次いで、描画装置400は、上述したコンテンツのメタ情報や現実世界の情報を入力すると(ステップS2421)、ユーザーの胴体の姿勢を表すクォータニオンqBに基づくユーザーの胴体座標系上で定位される固定位置に、入力した情報を表示するUI部品を配置する(ステップS2413)。次いで、描画処理部402は、ユーザーの胴体座標系上で配置したUI部品を、上式(21)及び(22)に従って、ユーザーの頭部の姿勢を表すクォータニオンqHに基づく頭部座標系上の位置及び姿勢に変換する(ステップS2414)。
また、描画装置400には、速度又は変位量など自由視点空間内で移動するための制御信号vが入力される(ステップS2431)。例えば、描画装置400でゲームなどの3次元画像を生成する場合には、ゲーム・コントローラーのジョイスティックなどの操作量に応じた制御信号vを入力することになる。また、スマートフォンに操作画面を表示させ、その操作画面をユーザーが操作することにより、制御信号vを入力するようにしてもよい。あるいは、外部に設置されたカメラなどを用いてユーザーの頭部の物理的な位置の移動を検出して、制御信号vとして入力するようにしてもよい。
描画処理部402では、入力された制御信号vに応じて、自由視点空間における移動量ΔBを計算する(ステップS2432)。本処理ルーチンでは、胴体動作追跡装置300から取得可能なユーザーの胴体の姿勢情報を利用するので、制御信号vはユーザーの胴体の姿勢情報qBに紐付けすることが可能であり、移動量ΔBは上式(4)に示したように求められる。
次いで、描画処理部402は、自由視点空間内で、現在の地点からユーザーの胴体の姿勢qBの方向(すなわち、体の正面の方向)に移動量ΔBだけ移動した後の地点pBを計算する(ステップS2433)。
そして、ユーザーの胴体の姿勢情報qBに紐付けされた地点pBを自由視点空間における視点位置とし、その視点位置pBからクォータニオンqHで表される視線方向に見える画像をレンダリングして(ステップS2415)、表示装置500に表示出力する。
図24に示した処理手順においても、ユーザーの頭部並びに胴体の姿勢を検出してから画像を表示するまでに生じる遅延時間を考慮して、画像のレンダリングを行なうようにしてもよい(同上)。
なお、図24に示したフローチャートでは省略したが、C項で説明したキャリブレーション処理を適用して、頭部動作追跡装置200が検出するユーザーの頭部姿勢の座標系と胴体動作追跡装置300が検出するユーザーの胴体姿勢の座標系との対応付けを行なうようにしてもよい。
特開2012−141461号公報 特開平9−106322号公報 特開2010−256534号公報
以上、特定の実施形態を参照しながら、本明細書で開示する技術について詳細に説明してきた。しかしながら、本明細書で開示する技術の要旨を逸脱しない範囲で当業者が該実施形態の修正や代用を成し得ることは自明である。
本明細書では、ヘッド・マウント・ディスプレイで自由視点視聴及び視点移動環境を実現する実施形態を中心に説明してきたが、本明細書で開示する技術はその他のユース・ケースにも応用することができる。例えば、テレビやプロジェクターなどの大画面ディスプレイの前に座ってゲームをしているユーザーが頭部動作追跡装置200並びに胴体動作追跡装置300を着用して、テレビ内のゲーム画面において自由視点視聴及び視点移動環境を実現することができる。
本明細書で開示する技術は、没入型、シースルー型、ビデオ・シースルー型のうちいずれのヘッド・マウント・ディスプレイにも適用することができる。また、本明細書で開示する技術は、両眼式並びに単眼式いずれのヘッド・マウント・ディスプレイにも適用することができる。
要するに、例示という形態により本明細書で開示する技術について説明してきたのであり、本明細書の記載内容を限定的に解釈するべきではない。本明細書で開示する技術の要旨を判断するためには、特許請求の範囲を参酌すべきである。
なお、本明細書の開示の技術は、以下のような構成をとることも可能である。
(1)観察者の頭部姿勢に関する第1の情報及び前記観察者の頭部以外の身体の姿勢に関する第2の情報を受信する受信部と、
前記第1の情報及び前記第2の情報に基づいて、前記観察者の姿勢に対応した表示画像を生成する描画処理部と、
を具備する情報処理装置。
(2)前記受信部は、前記第2の情報として、少なくとも前記観察者の胴体の姿勢を受信し、
前記描画処理部は、前記第1の情報に基づいて自由視点空間における前記観察者の視線方向を定位するとともに、前記第2の情報から得られる前記観察者の胴体の姿勢に基づいて前記自由視点空間における前記観察者の身体の向き(視点位置)を定位して、前記観察者の頭部の姿勢に追従する自由視点画像を生成する、
上記(1)に記載の情報処理装置。
(3)前記描画処理部は、前記自由視点空間における前記観察者の移動を指示する制御信号が入力されたときに、前記第2の情報から得られる前記観察者の胴体の姿勢に基づいて定位した身体の向きを正面方向と認識して移動後の地点(視点位置)を求める、
上記(2)に記載の情報処理装置。
(4)前記描画処理部は、前記第1の情報に基づいて自由視点空間における前記観察者の視線方向を定位するとともに、前記第2の情報から得られる姿勢に基づいて定位した固定位置に配置して、前記観察者の頭部姿勢に追従する自由視点画像を生成する、
上記(1)に記載の情報処理装置。
(5)前記受信部は、前記第2の情報として、少なくとも前記観察者の胴体の姿勢を受信し、
前記描画処理部は、前記第1の情報に基づいて自由視点空間における前記観察者の視線方向を定位するとともに、前記第2の情報から得られる前記観察者の胴体の姿勢に基づいて前記自由視点空間における前記観察者の身体の向き(視点位置)を定位し、且つ、前記観察者の胴体に姿勢に基づいて定位した固定位置に所定の画像部品を配置して、前記観察者の頭部の姿勢に追従する自由視点画像を生成する、
上記(1)に記載の情報処理装置。
(5−1)前記描画処理部は、前記自由視点画像に関わるメタ情報を含む前記画像部品を配置する、
上記(4)又は(5)のいずれかに記載の情報処理装置。
(6)キャリブレーション・パラメーターを取得するキャリブレーション処理部をさらに備え、
前記描画処理部は、キャリブレーション・パラメーターで補正した姿勢情報を用いて画像生成を実施する、
上記(1)乃至(5)のいずれかに記載の情報処理装置。
(7)前記キャリブレーション処理部は、前記第1の情報から得られる頭部の姿勢情報と、前記第2の情報から得られる第2の姿勢情報に基づいて、第2の姿勢情報を補正するためのキャリブレーション・パラメーターを計算し、前記キャリブレーション・パラメーターを用いて前記第2の姿勢情報を補正する、
上記(6)に記載の情報処理装置。
(8)前記キャリブレーション処理部は、前記頭部の姿勢情報と前記第2の姿勢情報を用いて前記第2の姿勢情報を前記頭部の姿勢情報に一致させるための姿勢変換パラメーターを前記キャリブレーション・パラメーターとして計算する、
上記(7)に記載の情報処理装置。
(9)姿勢情報はクォータニオンで表記され、
前記キャリブレーション処理部は、前記頭部の姿勢情報に前記第2の姿勢情報のクォータニオンのインバースを右から掛けて、第2の姿勢情報を補正するためのキャリブレーション・クォータニオンを計算し、
前記第2の姿勢情報のクォータニオンに前記キャリブレーション・クォータニオンを左から掛けて補正する、
上記(7)に記載の情報処理装置。
(10)前記キャリブレーション処理部は、前記第1の情報から得られる頭部姿勢の座標系と前記第2の情報から得られる姿勢の座標系の一定期間の回転変位と、人体の性質に基づいて、前記第2の姿勢情報を補正するためのキャリブレーション・パラメーターを推定する、
上記(6)に記載の情報処理装置。
(11)前記キャリブレーション処理部は、一定期間、前記第1の情報から得られる頭部の姿勢情報と前記第2の情報から得られる第2の姿勢情報に基づいて計算したキャリブレーション・パラメーターの時系列の平均を最終的なキャリブレーション・パラメーターとする、
上記(6)に記載の情報処理装置。
(12)姿勢情報はクォータニオンで表記され、
前記キャリブレーション処理部は、新たに受信した第1の情報及び第2の情報からそれぞれ得られる姿勢情報のクォータニオンに基づいて新規に算出したキャリブレーション・クォータニオンと、時系列の平均で求めた直前のキャリブレーション・クォータニオンを球面線形補間して、キャリブレーション・クォータニオンを更新する、
上記(11)に記載の情報処理装置。
(12−1)姿勢情報はクォータニオンで表記され、
前記キャリブレーション処理部は、キャリブレーション・クォータニオンの時系列を対数変換によって3次元空間に写像し、そこで加算平均などの代表値を算出した後、指数変換によってクォータニオンに戻す、
上記(11)に記載の画像表示装置。
(13)前記第2の情報に基づいて前記観察者の胴体の姿勢が算出され、
前記キャリブレーション処理部は、新たに受信した第1の情報及び第2の情報からそれぞれ得られる頭部及び胴体部の姿勢情報の、重力方向を回転軸としたときの回転方向の角度差分の平均値を求め、重力方向と前記平均値にキャリブレーション・パラメーターを算出する、
上記(11)に記載の情報処理装置。
(14)前記描画処理部は、前記第1の情報から得られる頭部の姿勢と前記第2の情報から得られる胴体の姿勢の差分に基づいて、前記表示部の表示画像を処理する、
上記(1)に記載の情報処理装置。
(15)生体安全対応モード下において、前記描画処理部は、前記自由視点空間内の頭部姿勢と胴体姿勢の差分が小さくなるように世界座標系を補正して、自由視点画像を生成する、
上記(2)又は(3)のいずれかに記載の情報処理装置。
(16)前記描画処理部は、生体安全対応モードに入った時点で自由視点空間内の頭部姿勢を固定するとともに、前記生体安全対応モード下では前記頭部姿勢検出部が検出する頭部姿勢に応じて自由視点空間内の胴体の姿勢を変化させて、自由視点画像を生成する、
上記(2)又は(3)のいずれかに記載の情報処理装置。
(17)前記第1の情報から得られる頭部の姿勢と前記第2の情報から得られる胴体の姿勢の差分が第1の閾値を超える状態が一定時間継続したときに前記生体安全対応モードに入り、前記差分が前記第1の閾値よりも小さい第2の閾値以下となったときに前記生体安全対応モードから出る、
上記(15)又は(16)のいずれかに記載の情報処理装置。
(18)観察者の頭部姿勢に関する第1の情報及び前記観察者の頭部以外の身体の姿勢に関する第2の情報を受信する受信ステップと、
前記第1の情報及び前記第2の情報に基づいて、前記観察者の姿勢に対応した表示画像を生成する描画処理ステップと、
を有する情報処理方法。
(19)観察者の頭部の姿勢を検出する頭部姿勢検出部の検出結果に基づいて前記観察者の頭部の姿勢情報を算出する頭部姿勢演算部、
前記観察者の頭部以外の身体の1以上の第2の部位の姿勢を検出する第2の姿勢検出部の検出結果に基づいて前記第2の部位の姿勢情報を算出する第2の姿勢演算部、
前記観察者の頭部の姿勢及び前記第2の部位の姿勢に基づいて、前記観察者の頭部又は顔部に固定される表示部に表示する画像を処理する描画処理部、
としてコンピューターを機能させるようにコンピューター可読形式で記述されたコンピューター・プログラム。
(20)観察者の頭部又は顔部に固定される表示部と、
前記観察者の頭部の姿勢を検出する頭部姿勢検出部と、
前記観察者の頭部以外の身体の1以上の第2の部位の姿勢を検出する第2の姿勢検出部と、
前記観察者の頭部の姿勢及び前記第2の部位の姿勢に基づいて前記表示部の表示画像を処理する描画処理部と、
を具備する画像処理システム。
100…画像表示システム
200…頭部動作追跡装置、201…センサー部
202…姿勢角演算部、203…送信部
300…胴体動作追跡装置、301…センサー部
302…姿勢角演算部、303…送信部
400…描画装置、401…受信部、402…描画処理部
403…送信部、404…画像ソース
500…表示装置、501…受信部、502…表示部

Claims (20)

  1. 観察者の頭部姿勢に関する第1の情報及び前記観察者の頭部以外の身体の姿勢に関する第2の情報を受信する受信部と、
    前記第1の情報及び前記第2の情報に基づいて、前記観察者の姿勢に対応した表示画像を生成する描画処理部と、
    を具備する情報処理装置。
  2. 前記受信部は、前記第2の情報として、少なくとも前記観察者の胴体の姿勢を受信し、
    前記描画処理部は、前記第1の情報に基づいて自由視点空間における前記観察者の視線方向を定位するとともに、前記第2の情報から得られる前記観察者の胴体の姿勢に基づいて前記自由視点空間における前記観察者の身体の向き(視点位置)を定位して、前記観察者の頭部の姿勢に追従する自由視点画像を生成する、
    請求項1に記載の情報処理装置。
  3. 前記描画処理部は、前記自由視点空間における前記観察者の移動を指示する制御信号が入力されたときに、前記第2の情報から得られる前記観察者の胴体の姿勢に基づいて定位した身体の向きを正面方向と認識して移動後の地点(視点位置)を求める、
    請求項2に記載の情報処理装置。
  4. 前記描画処理部は、前記第1の情報に基づいて自由視点空間における前記観察者の視線方向を定位するとともに、前記第2の情報から得られる姿勢に基づいて定位した固定位置に配置して、前記観察者の頭部姿勢に追従する自由視点画像を生成する、
    請求項1に記載の情報処理装置。
  5. 前記受信部は、前記第2の情報として、少なくとも前記観察者の胴体の姿勢を受信し、
    前記描画処理部は、前記第1の情報に基づいて自由視点空間における前記観察者の視線方向を定位するとともに、前記第2の情報から得られる前記観察者の胴体の姿勢に基づいて前記自由視点空間における前記観察者の身体の向き(視点位置)を定位し、且つ、前記観察者の胴体に姿勢に基づいて定位した固定位置に所定の画像部品を配置して、前記観察者の頭部の姿勢に追従する自由視点画像を生成する、
    請求項1に記載の情報処理装置。
  6. キャリブレーション・パラメーターを取得するキャリブレーション処理部をさらに備え、
    前記描画処理部は、キャリブレーション・パラメーターで補正した姿勢情報を用いて画像生成を実施する、
    請求項1乃至5のいずれかに記載の情報処理装置。
  7. 前記キャリブレーション処理部は、前記第1の情報から得られる頭部の姿勢情報と、前記第2の情報から得られる第2の姿勢情報に基づいて、第2の姿勢情報を補正するためのキャリブレーション・パラメーターを計算し、前記キャリブレーション・パラメーターを用いて前記第2の姿勢情報を補正する、
    請求項6に記載の情報処理装置。
  8. 前記キャリブレーション処理部は、前記頭部の姿勢情報と前記第2の姿勢情報を用いて前記第2の姿勢情報を前記頭部の姿勢情報に一致させるための姿勢変換パラメーターを前記キャリブレーション・パラメーターとして計算する、
    請求項7に記載の情報処理装置。
  9. 姿勢情報はクォータニオンで表記され、
    前記キャリブレーション処理部は、前記頭部の姿勢情報に前記第2の姿勢情報のクォータニオンのインバースを右から掛けて、第2の姿勢情報を補正するためのキャリブレーション・クォータニオンを計算し、
    前記第2の姿勢情報のクォータニオンに前記キャリブレーション・クォータニオンを左から掛けて補正する、
    請求項7に記載の情報処理装置。
  10. 前記キャリブレーション処理部は、前記第1の情報から得られる頭部姿勢の座標系と前記第2の情報から得られる姿勢の座標系の一定期間の回転変位と、人体の性質に基づいて、前記第2の姿勢情報を補正するためのキャリブレーション・パラメーターを推定する、
    請求項6に記載の情報処理装置。
  11. 前記キャリブレーション処理部は、一定期間、前記第1の情報から得られる頭部の姿勢情報と前記第2の情報から得られる第2の姿勢情報に基づいて計算したキャリブレーション・パラメーターの時系列の平均を最終的なキャリブレーション・パラメーターとする、
    請求項6に記載の情報処理装置。
  12. 姿勢情報はクォータニオンで表記され、
    前記キャリブレーション処理部は、新たに受信した第1の情報及び第2の情報からそれぞれ得られる姿勢情報のクォータニオンに基づいて新規に算出したキャリブレーション・クォータニオンと、時系列の平均で求めた直前のキャリブレーション・クォータニオンを球面線形補間して、キャリブレーション・クォータニオンを更新する、
    請求項11に記載の情報処理装置。
  13. 前記第2の情報に基づいて前記観察者の胴体の姿勢が算出され、
    前記キャリブレーション処理部は、新たに受信した第1の情報及び第2の情報からそれぞれ得られる頭部及び胴体部の姿勢情報の、重力方向を回転軸としたときの回転方向の角度差分の平均値を求め、重力方向と前記平均値にキャリブレーション・パラメーターを算出する、
    請求項11に記載の情報処理装置。
  14. 前記描画処理部は、前記第1の情報から得られる頭部の姿勢と前記第2の情報から得られる胴体の姿勢の差分に基づいて、前記表示部の表示画像を処理する、
    請求項1に記載の情報処理装置。
  15. 生体安全対応モード下において、前記描画処理部は、前記自由視点空間内の頭部姿勢と胴体姿勢の差分が小さくなるように世界座標系を補正して、自由視点画像を生成する、
    請求項2又は3のいずれかに記載の情報処理装置。
  16. 前記描画処理部は、生体安全対応モードに入った時点で自由視点空間内の頭部姿勢を固定するとともに、前記生体安全対応モード下では前記頭部姿勢検出部が検出する頭部姿勢に応じて自由視点空間内の胴体の姿勢を変化させて、自由視点画像を生成する、
    請求項2又は3のいずれかに記載の情報処理装置。
  17. 前記第1の情報から得られる頭部の姿勢と前記第2の情報から得られる胴体の姿勢の差分が第1の閾値を超える状態が一定時間継続したときに前記生体安全対応モードに入り、前記差分が前記第1の閾値よりも小さい第2の閾値以下となったときに前記生体安全対応モードから出る、
    請求項15又は16のいずれかに記載の情報処理装置。
  18. 観察者の頭部姿勢に関する第1の情報及び前記観察者の頭部以外の身体の姿勢に関する第2の情報を受信する受信ステップと、
    前記第1の情報及び前記第2の情報に基づいて、前記観察者の姿勢に対応した表示画像を生成する描画処理ステップと、
    を有する情報処理方法。
  19. 観察者の頭部の姿勢を検出する頭部姿勢検出部の検出結果に基づいて前記観察者の頭部の姿勢情報を算出する頭部姿勢演算部、
    前記観察者の頭部以外の身体の1以上の第2の部位の姿勢を検出する第2の姿勢検出部の検出結果に基づいて前記第2の部位の姿勢情報を算出する第2の姿勢演算部、
    前記観察者の頭部の姿勢及び前記第2の部位の姿勢に基づいて、前記観察者の頭部又は顔部に固定される表示部に表示する画像を処理する描画処理部、
    としてコンピューターを機能させるようにコンピューター可読形式で記述されたコンピューター・プログラム。
  20. 観察者の頭部又は顔部に固定される表示部と、
    前記観察者の頭部の姿勢を検出する頭部姿勢検出部と、
    前記観察者の頭部以外の身体の1以上の第2の部位の姿勢を検出する第2の姿勢検出部と、
    前記観察者の頭部の姿勢及び前記第2の部位の姿勢に基づいて前記表示部の表示画像を処理する描画処理部と、
    を具備する画像処理システム。
JP2016531160A 2014-06-30 2015-04-21 情報処理装置及び情報処理方法、コンピューター・プログラム、並びに画像処理システム Active JP6572893B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2014135216 2014-06-30
JP2014135216 2014-06-30
JP2014172231 2014-08-27
JP2014172231 2014-08-27
PCT/JP2015/062055 WO2016002318A1 (ja) 2014-06-30 2015-04-21 情報処理装置及び情報処理方法、コンピューター・プログラム、並びに画像処理システム

Publications (2)

Publication Number Publication Date
JPWO2016002318A1 true JPWO2016002318A1 (ja) 2017-04-27
JP6572893B2 JP6572893B2 (ja) 2019-09-11

Family

ID=55018876

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016531160A Active JP6572893B2 (ja) 2014-06-30 2015-04-21 情報処理装置及び情報処理方法、コンピューター・プログラム、並びに画像処理システム

Country Status (6)

Country Link
US (1) US10310595B2 (ja)
EP (1) EP3163422B1 (ja)
JP (1) JP6572893B2 (ja)
KR (1) KR102420313B1 (ja)
CN (1) CN106415447B (ja)
WO (1) WO2016002318A1 (ja)

Families Citing this family (65)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6474278B2 (ja) * 2015-02-27 2019-02-27 株式会社ソニー・インタラクティブエンタテインメント 画像生成システム、画像生成方法、プログラム及び情報記憶媒体
CN107708819A (zh) * 2015-06-01 2018-02-16 汤姆逊许可公司 用于虚拟现实的回应式动画
US10222619B2 (en) * 2015-07-12 2019-03-05 Steven Sounyoung Yu Head-worn image display apparatus for stereoscopic microsurgery
EP3364270A4 (en) * 2015-10-15 2018-10-31 Sony Corporation Information processing device and information processing method
RU2617557C1 (ru) * 2015-11-18 2017-04-25 Виталий Витальевич Аверьянов Способ воздействия на виртуальные объекты дополненной реальности
KR102499349B1 (ko) * 2016-03-21 2023-02-14 삼성전자주식회사 전방위 영상을 제공하는 전자 장치 및 방법
US10509469B2 (en) 2016-04-21 2019-12-17 Finch Technologies Ltd. Devices for controlling computers based on motions and positions of hands
JP6913326B2 (ja) * 2016-05-02 2021-08-04 ウェイヴス オーディオ リミテッド 適応基準を用いた頭部追跡
US11182930B2 (en) 2016-05-02 2021-11-23 Waves Audio Ltd. Head tracking with adaptive reference
US10238571B2 (en) 2016-06-22 2019-03-26 Toyota Motor Engineering & Manufacturing North America, Inc. Vision-assist devices and methods of calibrating image data of a vision-assist device
US20180012377A1 (en) * 2016-07-08 2018-01-11 Toyota Motor Engineering & Manufacturing North America, Inc. Vision-assist devices and methods of calibrating vision-assist devices
US11172005B2 (en) * 2016-09-09 2021-11-09 Nokia Technologies Oy Method and apparatus for controlled observation point and orientation selection audiovisual content
US10708569B2 (en) * 2016-09-29 2020-07-07 Eric Wilson Turbine-Powered Pool Scrubber
US10438389B2 (en) * 2016-11-07 2019-10-08 Htc Corporation Method, device, and non-transitory computer readable storage medium for displaying virtual reality or augmented reality environment according to a viewing angle
JP2018082308A (ja) 2016-11-16 2018-05-24 ソニー株式会社 情報処理装置、方法及びプログラム
JP6984645B2 (ja) * 2017-02-23 2021-12-22 ソニーグループ株式会社 画像処理装置、画像処理方法、および画像システム
WO2018183405A1 (en) * 2017-03-27 2018-10-04 Avegant Corp. Steerable foveal display
CN107145706B (zh) * 2017-03-30 2020-09-18 重庆爱奇艺智能科技有限公司 虚拟现实vr设备融合算法性能参数的评估方法及装置
WO2018198909A1 (ja) * 2017-04-28 2018-11-01 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理方法及びプログラム
US10705113B2 (en) 2017-04-28 2020-07-07 Finch Technologies Ltd. Calibration of inertial measurement units attached to arms of a user to generate inputs for computer systems
US10379613B2 (en) 2017-05-16 2019-08-13 Finch Technologies Ltd. Tracking arm movements to generate inputs for computer systems
US10540006B2 (en) * 2017-05-16 2020-01-21 Finch Technologies Ltd. Tracking torso orientation to generate inputs for computer systems
CN107368192B (zh) * 2017-07-18 2021-03-02 歌尔光学科技有限公司 Vr眼镜的实景观测方法及vr眼镜
US20200186729A1 (en) * 2017-07-31 2020-06-11 Sony Corporation Image processing apparatus, image processing method, program, and remote communication system
JP2019040555A (ja) 2017-08-29 2019-03-14 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US10628958B2 (en) * 2017-09-05 2020-04-21 Htc Corporation Frame rendering apparatus, method and non-transitory computer readable storage medium
GB2567164A (en) * 2017-10-04 2019-04-10 Continental Automotive Gmbh Display system in a vehicle
US11303814B2 (en) * 2017-11-09 2022-04-12 Qualcomm Incorporated Systems and methods for controlling a field of view
JP7073702B2 (ja) * 2017-12-11 2022-05-24 富士フイルムビジネスイノベーション株式会社 情報処理装置及び情報処理プログラム
US10521011B2 (en) 2017-12-19 2019-12-31 Finch Technologies Ltd. Calibration of inertial measurement units attached to arms of a user and to a head mounted device
US10509464B2 (en) * 2018-01-08 2019-12-17 Finch Technologies Ltd. Tracking torso leaning to generate inputs for computer systems
US11016116B2 (en) 2018-01-11 2021-05-25 Finch Technologies Ltd. Correction of accumulated errors in inertial measurement units attached to a user
US11695908B2 (en) 2018-03-30 2023-07-04 Sony Corporation Information processing apparatus and information processing method
US11474593B2 (en) 2018-05-07 2022-10-18 Finch Technologies Ltd. Tracking user movements to control a skeleton model in a computer system
US10416755B1 (en) 2018-06-01 2019-09-17 Finch Technologies Ltd. Motion predictions of overlapping kinematic chains of a skeleton model used to control a computer system
JP6506454B1 (ja) * 2018-06-14 2019-04-24 株式会社バーチャルキャスト データ差し替え装置、端末、およびデータ差し替えプログラム
CN112513944A (zh) * 2018-07-23 2021-03-16 奇跃公司 用于头部姿势预测的深度预测器循环神经网络
US11009941B2 (en) 2018-07-25 2021-05-18 Finch Technologies Ltd. Calibration of measurement units in alignment with a skeleton model to control a computer system
US11694408B2 (en) * 2018-08-01 2023-07-04 Sony Corporation Information processing device, information processing method, program, and movable object
EP3677995B1 (en) * 2018-08-01 2021-10-06 Rakuten Group, Inc. Display device, display method, program, and non-temporary computer-readable information storage medium
JP7168207B2 (ja) * 2018-10-29 2022-11-09 Necソリューションイノベータ株式会社 情報処理装置、情報処理方法、及びプログラム
EP3875898A4 (en) * 2018-10-31 2022-07-06 Sony Interactive Entertainment Inc. CALIBRATION DEVICE FOR A TRACKER, CALIBRATION METHOD FOR A TRACKER, AND PROGRAM
WO2020118276A1 (en) 2018-12-07 2020-06-11 Avegant Corp. Steerable positioning element
US11126261B2 (en) 2019-01-07 2021-09-21 Avegant Corp. Display control system and rendering pipeline
JP7048520B2 (ja) * 2019-01-31 2022-04-05 株式会社日立製作所 頭部装着型表示装置および仮想空間表示制御方法
US11960635B2 (en) 2019-02-01 2024-04-16 Maxell, Ltd. Virtual object display device and virtual object display method
JP2022059098A (ja) * 2019-02-20 2022-04-13 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム
JP7111645B2 (ja) * 2019-03-28 2022-08-02 株式会社バーチャルキャスト 制御プログラム
US11126001B2 (en) * 2019-03-29 2021-09-21 Sony Interactive Entertainment Inc. Image generating apparatus, head-mounted display, content processing system and image displaying method
US11586049B2 (en) 2019-03-29 2023-02-21 Avegant Corp. Steerable hybrid display using a waveguide
KR102149732B1 (ko) * 2019-04-17 2020-08-31 라쿠텐 인코포레이티드 표시 제어 장치, 표시 제어 방법, 프로그램, 및 비일시적인 컴퓨터 판독 가능한 정보 기록 매체
CN109976535B (zh) * 2019-05-05 2022-12-02 北京七鑫易维信息技术有限公司 一种校准方法、装置、设备及存储介质
US11954247B2 (en) 2019-06-21 2024-04-09 Maxell, Ltd. Head mounted display apparatus
US10809797B1 (en) 2019-08-07 2020-10-20 Finch Technologies Ltd. Calibration of multiple sensor modules related to an orientation of a user of the sensor modules
WO2021040010A1 (ja) * 2019-08-30 2021-03-04 ソニー株式会社 情報処理装置、制御方法
WO2021124680A1 (ja) 2019-12-18 2021-06-24 ソニーグループ株式会社 情報処理装置及び情報処理方法
EP4062225A4 (en) 2020-01-06 2023-12-27 Avegant Corp. HEAD MOUNTED SYSTEM WITH COLOR SPECIFIC MODULATION
KR20210103880A (ko) * 2020-02-14 2021-08-24 엘지전자 주식회사 컨텐트 제공 방법 및 디바이스
CN111694429B (zh) * 2020-06-08 2023-06-02 北京百度网讯科技有限公司 虚拟对象驱动方法、装置、电子设备及可读存储
KR102437276B1 (ko) * 2020-10-15 2022-08-30 (주)이머시브캐스트 바디 움직임 기반의 클라우드 vr 장치 및 방법
GB2607151B (en) * 2021-03-12 2024-06-05 Canon Kk Wearable image pickup apparatus, portable device and calibrator that communicate with image pickup apparatus, control methods therefor, and storage media
GB2611154A (en) 2021-07-29 2023-03-29 Canon Kk Image pickup apparatus used as action camera, control method therefor, and storage medium storing control program therefor
GB2611157A (en) 2021-07-30 2023-03-29 Canon Kk Image pickup apparatus used as action camera, calibration system, control method for image pickup apparatus, and storage medium storing control program for...
KR20230019016A (ko) * 2021-07-30 2023-02-07 캐논 가부시끼가이샤 액션 카메라로서 사용되는 촬상장치
US20230418371A1 (en) * 2022-06-24 2023-12-28 Apple Inc. Controlling a Device Setting Using Head Pose

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001208529A (ja) * 2000-01-26 2001-08-03 Mixed Reality Systems Laboratory Inc 計測装置及びその制御方法並びに記憶媒体
JP2002269593A (ja) * 2001-03-13 2002-09-20 Canon Inc 画像処理装置及び方法、並びに記憶媒体
JP2013083731A (ja) * 2011-10-06 2013-05-09 Murata Mach Ltd 画像表示システム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2109336C1 (ru) * 1995-07-14 1998-04-20 Нурахмед Нурисламович Латыпов Способ погружения пользователя в виртуальную реальность и устройство для его реализации
JPH09106322A (ja) 1995-10-09 1997-04-22 Data Tec:Kk ヘッドマウントディスプレイにおける姿勢角検出装置
US6118888A (en) * 1997-02-28 2000-09-12 Kabushiki Kaisha Toshiba Multi-modal interface apparatus and method
US20080091373A1 (en) * 2006-07-31 2008-04-17 University Of New Brunswick Method for calibrating sensor positions in a human movement measurement and analysis system
KR101483713B1 (ko) * 2008-06-30 2015-01-16 삼성전자 주식회사 모션 캡쳐 장치 및 모션 캡쳐 방법
JP2010256534A (ja) 2009-04-23 2010-11-11 Fujifilm Corp 全方位画像表示用ヘッドマウントディスプレイ装置
JP5499762B2 (ja) * 2010-02-24 2014-05-21 ソニー株式会社 画像処理装置、画像処理方法、プログラム及び画像処理システム
US9366862B2 (en) * 2010-02-28 2016-06-14 Microsoft Technology Licensing, Llc System and method for delivering content to a group of see-through near eye display eyepieces
JP2012141461A (ja) 2010-12-29 2012-07-26 Sony Corp ヘッド・マウント・ディスプレイ
KR101214227B1 (ko) * 2011-05-25 2012-12-20 한국과학기술연구원 동작 추적 방법.
JP6143469B2 (ja) * 2013-01-17 2017-06-07 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
WO2015098292A1 (ja) 2013-12-25 2015-07-02 ソニー株式会社 画像処理装置及び画像処理方法、コンピューター・プログラム、並びに画像表示システム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001208529A (ja) * 2000-01-26 2001-08-03 Mixed Reality Systems Laboratory Inc 計測装置及びその制御方法並びに記憶媒体
JP2002269593A (ja) * 2001-03-13 2002-09-20 Canon Inc 画像処理装置及び方法、並びに記憶媒体
JP2013083731A (ja) * 2011-10-06 2013-05-09 Murata Mach Ltd 画像表示システム

Also Published As

Publication number Publication date
WO2016002318A1 (ja) 2016-01-07
EP3163422B1 (en) 2020-02-12
US20170083084A1 (en) 2017-03-23
EP3163422A1 (en) 2017-05-03
JP6572893B2 (ja) 2019-09-11
CN106415447A (zh) 2017-02-15
US10310595B2 (en) 2019-06-04
KR102420313B1 (ko) 2022-07-13
KR20170028313A (ko) 2017-03-13
EP3163422A4 (en) 2018-03-07
CN106415447B (zh) 2019-08-06

Similar Documents

Publication Publication Date Title
JP6572893B2 (ja) 情報処理装置及び情報処理方法、コンピューター・プログラム、並びに画像処理システム
US10127725B2 (en) Augmented-reality imaging
US9686466B1 (en) Systems and methods for environment content sharing
US10539797B2 (en) Method of providing virtual space, program therefor, and recording medium
US20160212538A1 (en) Spatial audio with remote speakers
JP6462059B1 (ja) 情報処理方法、情報処理プログラム、情報処理システム、および情報処理装置
KR20160110350A (ko) 화상 표시 장치 및 화상 표시 방법, 화상 출력 장치 및 화상 출력 방법과, 화상 표시 시스템
US11373379B2 (en) Image generation apparatus and image generation method for generating augmented reality images based on user interaction
WO2019150880A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2011010126A (ja) 画像処理装置、画像処理方法
US20220291744A1 (en) Display processing device, display processing method, and recording medium
US10403048B2 (en) Storage medium, content providing apparatus, and control method for providing stereoscopic content based on viewing progression
EP2583131A2 (en) Systems and methods for personal viewing devices
US11187895B2 (en) Content generation apparatus and method
US20210058611A1 (en) Multiviewing virtual reality user interface
US10834382B2 (en) Information processing apparatus, information processing method, and program
JP2022015647A (ja) 情報処理装置および画像表示方法
CN112272817B (zh) 用于在沉浸式现实中提供音频内容的方法和装置
CN112272817A (zh) 用于在沉浸式现实中提供音频内容的方法和装置
KR20170111010A (ko) 가상 이미지를 이용한 영상 통화 시스템 및 방법과 이를 수행하기 위한 영상 통화 중계 서버

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190305

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190502

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190528

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190705

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190716

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190729

R151 Written notification of patent or utility model registration

Ref document number: 6572893

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151