JP6384940B2 - 3d画像の表示方法及びヘッドマウント機器 - Google Patents

3d画像の表示方法及びヘッドマウント機器 Download PDF

Info

Publication number
JP6384940B2
JP6384940B2 JP2017530067A JP2017530067A JP6384940B2 JP 6384940 B2 JP6384940 B2 JP 6384940B2 JP 2017530067 A JP2017530067 A JP 2017530067A JP 2017530067 A JP2017530067 A JP 2017530067A JP 6384940 B2 JP6384940 B2 JP 6384940B2
Authority
JP
Japan
Prior art keywords
video image
video
image
background model
edge portion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017530067A
Other languages
English (en)
Other versions
JP2018505580A (ja
Inventor
イン,チー
チョウ,ホンウェイ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qingdao Goertek Technology Co Ltd
Original Assignee
Qingdao Goertek Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qingdao Goertek Technology Co Ltd filed Critical Qingdao Goertek Technology Co Ltd
Publication of JP2018505580A publication Critical patent/JP2018505580A/ja
Application granted granted Critical
Publication of JP6384940B2 publication Critical patent/JP6384940B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/133Equalising the characteristics of different image components, e.g. their average brightness or colour balance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • H04N13/279Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/339Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using spatial multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Description

本発明は、3D画像の表示技術分野に関し、特に、3D画像の表示方法及びヘッドマウント機器に関する。
近年、ヘッドマウント機器がますます普及してきており、より多くのユーザーがホームシアターを体験する手段になりつつある。
しかし、従来のヘッドマウント機器は、映画コンテンツ自体の表示に重点を置いており、ユーザーにとって、映画館で映画を鑑賞するような効果がなかった。
特に、従来のヘッドマウント機器による3Dビデオの処理は、いずれも画像の各フレームのエッジ部分に対するファジィ処理に基づくものであるが、3Dビデオ画像のエッジ部分が不明瞭になる問題が生じるとともに、3D画像の表示角度が狭くなるという問題も生じてしまう。
このように、従来のヘッドマウント機器においては、3D画像の表示角度が狭いという問題が存在している。
そこで、本発明は、従来のヘッドマウント機器における3D画像の表示角度が狭いという問題を解決しようとする3D画像の表示方法及びヘッドマウント機器を提供する。
上記目的を達成するために、本発明による3D画像の表示方法は、3D背景モデルを確立して、前記3D背景モデルにビデオ画像表示領域を設けるステップと、ビデオ画像データを取得し、前記ビデオ画像データを前記3D背景モデルのビデオ画像表示領域に投影するステップと、ヘッドマウント機器の表示パラメータを取得して、前記表示パラメータに基づいて、前記ビデオ画像データが投影された3D背景モデルに対して画像変形処理を行い、左眼に対応する第1の3Dビデオ画像及び右眼に対応する第2の3Dビデオ画像をそれぞれ生成するステップと、前記ビデオ画像表示領域において、前記第1の3Dビデオ画像及び前記第2の3Dビデオ画像をそれぞれ2つのレンズで屈折させて表示するステップと、眼部観察位置マトリックスを設け、ユーザーの観察角度を取得し、前記ユーザーの観察角度に応じて、前記眼部観察位置マトリックスを修正するステップと、前記眼部観察位置マトリックスに基づいて、3D背景モデルの頂点に対するマトリックス演算を行って、新しい頂点を得て、該新しい頂点に対して着色処理を行って、視角に対応する3D背景モデルを生成するステップと、を含む。
好ましくは、前記左眼に対応する第1の3Dビデオ画像及び右眼に対応する第2の3Dビデオ画像をそれぞれ生成した後に、前記左眼に対応する第1の3Dビデオ画像のエッジ部分及び前記右眼に対応する第2の3Dビデオ画像のエッジ部分に対してそれぞれ画像平滑化処理を行うステップと、前記画像平滑化処理後の前記第1の3Dビデオ画像及び前記第2の3Dビデオ画像をそれぞれ表示するステップと、をさらに含むとよい。
好ましくは、前記ビデオ画像データが投影された3D背景モデルに対して画像変形処理を行い、左眼に対応する第1の3Dビデオ画像及び右眼に対応する第2の3Dビデオ画像をそれぞれ生成するステップは、前記ヘッドマウント機器の表示領域の長さと幅の値に応じて、第1の枠体及び第2の枠体を生成するステップと、前記ビデオ画像データが投影された3D背景モデルに対して画像変形処理を行い、左眼に対応する第1のビデオデータ及び右眼に対応する第2のビデオデータをそれぞれ生成するステップと、前記第1のビデオデータを前記第1の枠体に配置して左眼に対応する第1の3Dビデオ画像を生成するとともに、前記第2のビデオデータを前記第2の枠体に配置して右眼に対応する第2の3Dビデオ画像を生成するステップと、を含むとよい。
好ましくは、前記左眼に対応する第1の3Dビデオ画像のエッジ部分及び前記右眼に対応する第2の3Dビデオ画像のエッジ部分に対してそれぞれ画像平滑化処理を行うステップは、前記第1の3Dビデオ画像のエッジ部分及び前記第2の3Dビデオ画像のエッジ部分に対して、畳み込み平滑化アルゴリズムにより、画像平滑化処理を行うステップを含み、そのうち、前記第1の3Dビデオ画像のエッジ部分とは、前記第1の3Dビデオ画像の中心との距離が予め設定された値より大きい領域を指し、前記第2の3Dビデオ画像のエッジ部分とは、前記第2の3Dビデオ画像の中心との距離が予め設定された値より大きい領域を指す。
好ましくは、前記第1の3Dビデオ画像のエッジ部分及び前記第2の3Dビデオ画像のエッジ部分に対して、畳み込み平滑化アルゴリズムにより、画像平滑化処理を行うステップは、前記第1の3Dビデオ画像のエッジ部分及び前記第2の3Dビデオ画像のエッジ部分における各画素点のそれぞれに対して、該画素点の周囲の画素点を採集して、画素近傍マトリックスを構成するステップと、前記画素近傍マトリックスと予め設定された畳み込み重みマトリックスに対して重み付け演算を行って、新しい値を得て、当該新しい値で当該画素点の元の値を置き換えるステップと、を含むとよい。
好ましくは、視角平行移動パラメータを取得し、該視角平行移動パラメータに基づいて、前記3D背景モデルに対して平行移動演算を行って、新しい3D背景モデルを得るステップをさらに含むとよい。
好ましくは、前記3D背景モデルは、3Dシアターモデルであり、そのうち、3Dシアターモデルにおけるスクリーンモデルは、対応するビデオ画像表示領域であるとよい。
本発明によるヘッドマウント機器は、3D背景モデルを確立して、該3D背景モデルにビデオ画像表示領域を設けるための背景処理モジュールと、前記背景処理モジュールに接続され、ビデオ画像データを取得し、前記ビデオ画像データを前記3D背景モデルのビデオ画像表示領域に投影するとともに、ヘッドマウント機器の表示パラメータを採集して、前記ヘッドマウント機器の表示パラメータを画像処理モジュールに送信するための採集処理モジュールと、前記採集処理モジュールに接続され、前記表示パラメータに基づいて、前記ビデオ画像データが投影された3D背景モデルに対して画像変形処理を行い、左眼に対応する第1の3Dビデオ画像及び右眼に対応する第2の3Dビデオ画像をそれぞれ生成するための画像処理モジュールと、前記採集処理モジュール及び前記画像処理モジュールにそれぞれ接続され、前記ビデオ画像表示領域において、前記第1の3Dビデオ画像及び前記第2の3Dビデオ画像をそれぞれ2つのレンズで屈折させて表示するための表示モジュールと、前記画像処理モジュールに接続され、眼部観察位置マトリックスを設けるとともに、ユーザーの観察角度を取得した後に、該ユーザーの観察角度に応じて前記眼部観察位置マトリックスを修正するための視角調整モジュールを含み、前記画像処理モジュールは、前記眼部観察位置マトリックスに基づいて、前記3D背景モデルの頂点に対するマトリックス演算を行って、新しい頂点を得ることと、該新しい頂点に対して着色処理を行って、視角に対応する3D背景モデルを生成することと、に用いられるものである。
好ましくは、前記画像処理モジュールは、さらに、前記ヘッドマウント機器の表示領域の長さと幅の値に応じて、第1の枠体及び第2の枠体を生成することと、前記ビデオ画像データが投影された3D背景モデルに対して画像変形処理を行い、左眼に対応する第1のビデオデータ及び右眼に対応する第2のビデオデータをそれぞれ生成することと、前記第1のビデオデータを前記第1の枠体に配置し、左眼に対応する第1の3Dビデオ画像を生成することと、前記第2のビデオデータを前記第2の枠体に配置し、右眼に対応する第2の3Dビデオ画像を生成することと、前記第1の3Dビデオ画像のエッジ部分及び前記第2の3Dビデオ画像のエッジ部分に対してそれぞれ画像平滑化処理を行うことと、に用いられるとよい。
本発明によれば、3D背景モデルを設けるとともに、ビデオ画像データが投影された3D背景モデルに対して画像変形処理を行い、第1の3Dビデオ画像及び前記第2の3Dビデオ画像をそれぞれ生成することで、ユーザーがヘッドマウント機器におけるレンズを通して視聴するときに、より大きな視野角で視聴することができ、ユーザーの体験が向上する。したがって、従来のヘッドマウント機器における3Dビデオ視聴時の視野角が狭く、エッジが不明瞭という問題を解決することができる。
図面は、本発明に対する更なる理解のために提供されるものであり、明細書の一部とされ、本発明の実施例とともに本発明を解釈するために用いられるが、本発明を制限するものではない。
本発明における3D画像の表示方法のフローチャートである。 本発明における3D画像の表示方法の詳細フローチャートである。 本発明における3Dビデオ画像の平滑化処理のフローチャートである。 本発明における3D画像表示の視角変換フローチャートである。 本発明における他の3D画像表示の視角変換フローチャートである。 本発明におけるヘッドマウント機器の構造模式図である。 本発明におけるヘッドマウント機器の詳細構造模式図である。
以下、図面を参照して、本発明の実施形態について詳細に説明する。
図1は本発明における3D画像の表示方法のフローチャートである。図1に示すように、当該方法は以下のステップを含む。
ステップ101においては、3D背景モデルを確立して、この3D背景モデルにビデオ画像表示領域を設ける。
ステップ102においては、ビデオ画像データを取得し、このビデオ画像データを前記3D背景モデルのビデオ画像表示領域に投影する。
ステップ103においては、ヘッドマウント機器の表示パラメータを取得して、この表示パラメータに基づいて、前記ビデオ画像データが投影された3D背景モデルに対して画像変形処理を行い、左眼に対応する第1の3Dビデオ画像及び右眼に対応する第2の3Dビデオ画像をそれぞれ生成する。
ステップ104においては、前記ビデオ画像表示領域において、前記第1の3Dビデオ画像及び前記第2の3Dビデオ画像をそれぞれ2つのレンズで屈折させて表示する。
このように、本発明による3D画像の表示方法は、ヘッドマウント機器に適用され、人の目の視点の相違によって、3D背景モデルにビデオ画像表示領域を設け、取得したビデオ画像データを当該3D背景モデルのビデオ画像表示領域に投影して、前記ビデオ画像データが投影された3D背景モデルに対して画像変形処理を行い、第1の3Dビデオ画像及び第2の3Dビデオ画像をそれぞれ生成することにより、ユーザーは、ヘッドマウント機器におけるレンズを通して視聴するときに、より大きな視野角で視聴することができる。そして、3D背景モデルを設けることで、ユーザーは、ビデオを視聴すると同時に臨場感を楽しむことができ、ユーザーの体験が向上する。
図2は、本発明による3D画像の表示方法の詳細フローチャートである。図2に示すように、当該方法は、以下のステップを含む。
ステップ201においては、3D背景モデルを確立して、この3D背景モデルにビデオ画像表示領域を設ける。
本発明の一実施例において、3D背景モデルは、シアター3Dモデルでも良く、即ち、スクリーン、座席などの3Dモデルを含む。そのうち、3D背景モデルにおいて設けられたビデオ画像表示領域は、シアター3Dモデルのスクリーンモデルに対応する。
また、ステップ202では、ビデオ画像データを取得し、このビデオ画像データを前記3D背景モデルのビデオ画像表示領域に投影する。
さらに、ステップ202では、再生するためのビデオ画像データを取得し、当該ビデオ画像データをシアター3Dモデルのスクリーンモデルに投影する。即ち、ユーザーは、ヘッドマウント機器を介してビデオを視聴するときに、シアター3Dモデルのスクリーンが見えており、対応するビデオをこのスクリーンに再生することで、その場にいるようなビデオ視聴効果が実現される。
ステップ203においては、ヘッドマウント機器の表示パラメータを取得して、この表示パラメータに基づいて、前記ビデオ画像データが投影された3D背景モデルに対して画像変形処理を行い、左眼に対応する第1の3Dビデオ画像及び右眼に対応する第2の3Dビデオ画像をそれぞれ生成する。
本発明の一実施例において、ヘッドマウント機器の表示パラメータは、ヘッドマウント機器の表示領域の長さと幅の値である。
また、ステップ203では、ヘッドマウント機器の表示領域の長さと幅の値に応じて、第1の枠体及び第2の枠体を生成して、前記ビデオ画像が表示された3D背景モデルに対して画像変形処理を行い、左眼に対応する第1のビデオデータ及び右眼に対応する第2のビデオデータをそれぞれ生成して、前記第1のビデオデータを前記第1の枠体に配置して左眼に対応する第1の3Dビデオ画像を生成するとともに、前記第2のビデオデータを前記第2の枠体に配置して右眼に対応する第2の3Dビデオ画像を生成する。
本発明の上記実施例において、ヘッドマウント機器の表示スクリーンに第1の枠体及び第2の枠体を生成して、第1の枠体及び第2の枠体内に、それぞれ第1の3Dビデオ画像及び第2の3Dビデオ画像を表示することで、人の目は、光学レンズを通して第1の3Dビデオ画像及び第2の3Dビデオ画像にそれぞれ表示されるシアター3Dモデルを視聴するとき、より大きな視角が得られる。即ち、IMAXの鑑賞効果を実現することができる。
ステップ204においては、前記第1の3Dビデオ画像のエッジ部分及び前記第2の3Dビデオ画像のエッジ部分に対してそれぞれ画像平滑化処理を行う。
また、ステップ204では、スクリーンにおけるビデオ画像データが表示されたシアター3Dモデルに対する画像変形処理を行った後に、生成した第1の3Dビデオ画像のエッジ部分及び第2の3Dビデオ画像のエッジ部分に鋸歯が生じることに起因して、人の目が光学レンズを通して見えた3D映像が歪んでしまうという問題を避けるために、第1の3Dビデオ画像のエッジ部分及び第2の3Dビデオ画像のエッジ部分に対してそれぞれ画像平滑化処理を行う。
本発明の一実施例において、畳み込み平滑化アルゴリズムを用いて、前記第1の3Dビデオ画像のエッジ部分及び第2の3Dビデオ画像のエッジ部分に対して画像平滑化処理を行っても良い。
ステップ205においては、前記画像平滑化処理後の前記第1の3Dビデオ画像及び前記第2の3Dビデオ画像を表示する。
また、ステップ205では、前記ビデオ画像表示領域における画像平滑化処理後の第1の3Dビデオ画像及び第2の3Dビデオ画像をヘッドマウント機器の表示スクリーンに表示する。
本発明の1つの具体的実施例において、ステップ203においては、ヘッドマウント機器の表示スクリーンの大きさに応じて、スクリーンにおけるビデオ画像データが表示されたシアター3Dモデルに対して画像変形処理を行う。そして、ヘッドマウント機器の表示スクリーンに第1の3Dビデオ画像を配置するための第1の枠体(Mesh)、及び第2の3Dビデオ画像を配置するための第2の枠体(Mesh)を生成して、それぞれ左眼及び右眼に対応させる。人体の左眼及び右眼の視点が異なるため、左眼と右眼に表示されるシアター3Dモデルも異なる。これにより、人の目が光学レンズを通して、第1の3Dビデオ画像及び第2の3Dビデオ画像にそれぞれ表示されるシアター3Dモデルを視聴するときに、人の脳が第1の3Dビデオ画像及び第2の3Dビデオ画像にそれぞれ表示される内容を識別することができる。これにより、真実なシアター3Dモデル効果が生じる。
本発明による3D画像の表示方法によれば、ユーザーがヘッドマウント機器を装着することにより、まるで映画館にいるように体感でき、映画が視聴できるだけではなく、異なる観察視角を選択することで、視聴される映画の大きさと角度も異なり、それに、3Dビデオのコンテンツが3D背景モデルに表示され、現実感が高まる。
図3は本発明における3Dビデオ画像の平滑化処理のフローチャートである。本発明の1つの具体的実施例において、図3に示すように、第1の3Dビデオ画像のエッジ部分及び第2の3Dビデオ画像のエッジ部分に対する画像平滑化処理をより好適に行うために、当該方法は、以下のステップを含む。
ステップ301においては、第1の3Dビデオ画像のエッジ部分の画素点を取得する。ステップ301において、第1の3Dビデオ画像のエッジ部分とは、この第1の3Dビデオ画像の中心との距離が予め設定された値より大きい領域を指す。
ステップ302においては、第2の3Dビデオ画像のエッジ部分の画素点を取得する。ステップ302において、第2の3Dビデオ画像のエッジ部分とは、この第2の3Dビデオ画像の中心との距離が予め設定された値より大きい領域を指す。
本発明の1つの好ましい実施例において、ステップ301及びステップ302における前記予め設定された値は、最遠画素点から中心点までの距離の半分としても良い。
ステップ303においては、前記第1の3Dビデオ画像のエッジ部分及び前記第2の3Dビデオ画像のエッジ部分における各画素点のそれぞれに対して、この画素点の周囲の画素点を採集して、画素近傍マトリックスを構成する。
ステップ303において、対象画素点の周囲の8つの画素点を採集して、3×3の画素近傍マトリックスを構成しても良い。本発明の他の実施例において、より良い画像平滑化効果を生じさせるために、より多くの画素点を採集して、より大きな画素近傍マトリックスを構成しても良い。
ステップ304においては、前記画素近傍マトリックスと予め設定された畳み込み重みマトリックスに対して重み付け演算を行って、新しい値を得る。
ステップ304において、予め設定された畳み込み重みマトリックスは、採集した画素近傍マトリックスに対応しており、前記畳み込み重みマトリックスは、採集した画素近傍マトリックスにおける各画素点のそれぞれに対して、異なる重みを設定し、そのうち、対象画素点の重みは、最大となる。
ステップ305においては、当該新しい値で当該画素点の元の値を置き換える。
本発明の一実施例において、ステップ301とステップ302は、前後の順番を問わずに、同時に行うことが可能である。そして、中心点から離れる距離が最遠画素点から中心点までの距離の半分を上回る画素点のみに対して畳みこみ平滑化演算を行い、中心点から離れる距離がその半分を下回る画素点に対して当該演算を行わないことで、GPU処理の効率を向上させ、3Dビデオをより円滑に視聴することができる。
本発明の一実施例において、異なる角度から3D映像を視聴する効果を実現するために、眼部観察位置マトリックスを確立する方式により、視角の変更を実現することが可能である。図4は、本発明における3D画像表示の視角変換フローチャートである。図4に示すように、当該方法は、以下のステップを含む。
ステップ401においては、眼部観察位置マトリックスを設ける。
ステップ402においては、視角オフセット角度を取得し、前記視角オフセット角度に応じて、眼部観察位置マトリックスを修正する。
ステップ403においては、前記眼部観察位置マトリックスに基づいて、3D背景モデルの頂点に対するマトリックス演算を行って、新しい頂点を得る。
ステップ404においては、前記新しい頂点に対して着色処理を行って、当該視角に対応する3D背景モデルを生成する。
本発明の一実施例において、視角オフセット角度を取得した後に、Matrix.setLookAemを呼び出して眼部観察位置マトリックスを修正することで、3D背景モデルに対するユーザーの観察角度を変えることができる。具体的に、眼部観察位置マトリックスMにより、3D背景モデルの頂点V(三次元ベクトル)に対してマトリックス演算を行って、新しい頂点V’(V’=M*V)を得て、頂点シェーダーによって新しい頂点V’を処理する。例えば、gl_Position=M*(V,1.0)。
本発明の一実施例において、異なる角度から3D映像を視聴する効果を実現するために、3D背景モデル移動マトリックスを設ける方式により、視角の変更を実現することが可能である。図5は、本発明における他の3D画像表示の視角変換フローチャートである。図5に示すように、当該方法は、以下のステップを含む。
ステップ501においては、視角平行移動パラメータを取得する。
ステップ502においては、前記視角平行移動パラメータに基づいて、前記3D背景モデルに対して平行移動演算を行って、新しい3D背景モデルを得る。
本発明の一実施例において、3D背景モデルの元の頂点をV=[x,y,z]とし、視角平行移動パラメータを[x’,y’,z’]として、それぞれ世界座標系に沿って、x’,y’,z’で移動すると表現する。前記視角平行移動パラメータに基づいて、前記3D背景モデルに対して平行移動演算を実行すると、V’=[x+x’,y+y’,z+z’]となる。
本発明の他の実施例において、3D映像視聴視角の変換は、実現の観点からすると、上記の技術に限られず、変換の双対性のため、その他の方式により、3D映像視聴視角の変換を実現しても良い。例えば、スクリーンの位置を世界座標系のZ軸の正方向へ移動するのは、眼部の観察位置をZ軸の負方向へ移動することに等しい。
図6は本発明におけるヘッドマウント機器の構造模式図である。図6に示すように、当該ヘッドマウント機器は、3D背景モデルを確立して、この3D背景モデルにビデオ画像表示領域を設けるための背景処理モジュール601と、前記背景処理モジュール601に接続され、ビデオ画像データを取得し、前記ビデオ画像データを前記3D背景モデルのビデオ画像表示領域に投影するとともに、ヘッドマウント機器の表示パラメータを採集して、前記ヘッドマウント機器の表示パラメータを画像処理モジュール603に送信するための採集処理モジュール602と、前記採集処理モジュール602に接続され、前記表示パラメータに基づいて、前記ビデオ画像データが投影された3D背景モデルに対して画像変形処理を行い、左眼に対応する第1の3Dビデオ画像及び右眼に対応する第2の3Dビデオ画像をそれぞれ生成して、後述の表示モジュール604に送信するための画像処理モジュール603と、前記採集処理モジュール602及び前記画像処理モジュール603にそれぞれ接続され、前記ビデオ画像表示領域において、前記第1の3Dビデオ画像及び前記第2の3Dビデオ画像をそれぞれ2つのレンズで屈折させて表示するための表示モジュール604と、を含む。
図7は本発明におけるヘッドマウント機器の詳細構造模式図である。図7に示すように、本発明の一実施例において、画像処理モジュール603は、ヘッドマウント機器の表示領域の長さと幅の値に応じて、第1の枠体及び第2の枠体を生成して、前記ビデオ画像データが投影された3D背景モデルに対して画像変形処理を行い、左眼に対応する第1のビデオデータ及び右眼に対応する第2のビデオデータをそれぞれ生成し、前記第1のビデオデータを前記第1の枠体に配置して左眼に対応する第1の3Dビデオ画像を生成するとともに、前記第2のビデオデータを前記第2の枠体に配置して右眼に対応する第2の3Dビデオ画像を生成する。
人の目が光学レンズを通して第1の3Dビデオ画像及び第2の3Dビデオ画像を視聴するときに、より優れる視聴効果を達成するために、本発明の一実施例において、画像処理モジュール603は、前記第1の3Dビデオ画像のエッジ部分及び前記第2の3Dビデオ画像のエッジ部分に対してそれぞれ画像平滑化処理を行う。
本発明の他の実施例において、画像処理モジュール603は、前記第1の3Dビデオ画像のエッジ部分及び前記第2の3Dビデオ画像のエッジ部分に対して、畳み込み平滑化アルゴリズムにより、画像平滑化処理を行う。
そのうち、前記第1の3Dビデオ画像のエッジ部分とは、前記第1の3Dビデオ画像の中心との距離が予め設定された値より大きい領域を指し、前記第2の3Dビデオ画像のエッジ部分とは、前記第2の3Dビデオ画像の中心との距離が予め設定された値より大きい領域を指す。
本発明の一実施例において、画像処理モジュール603は、前記第1の3Dビデオ画像のエッジ部分及び前記第2の3Dビデオ画像のエッジ部分における各画素点のそれぞれに対して、この画素点の周囲の画素点を採集して、画素近傍マトリックスを構成し、この画素近傍マトリックスと予め設定された畳み込み重みマトリックスに対して重み付け演算を行って、新しい値を得て、この新しい値で当該画素点の元の値を置き換える。
異なる角度から3D映像を視聴する効果を実現するために、本発明の一実施例において、当該ヘッドマウント機器は、前記画像処理モジュール603に接続され、眼部観察位置マトリックスを設け、並びに、ユーザーの観察角度を取得した後に、前記ユーザーの観察角度に応じて、眼部観察位置マトリックスを修正するための視角調整モジュール605をさらに含む。
画像処理モジュール603は、さらに、前記眼部観察位置マトリックスに基づいて、3D背景モデルの頂点に対するマトリックス演算を行って、新しい頂点を得ることと、この新しい頂点に対して着色処理を行って、視角に対応する3D背景モデルを生成することと、に用いられる。
本発明の他の実施例において、視角調整モジュール605は、視角平行移動パラメータを取得し、取得した視角平行移動パラメータを画像処理モジュール603に送信するために用いられる。
画像処理モジュール603は、視角平行移動パラメータに基づいて、前記3D背景モデルに対して平行移動演算を行って、新しい3D背景モデルを得る。
このように、本発明によれば、3D背景モデルを設けるとともに、ビデオ画像データが投影された3D背景モデルに対して画像変形処理を行い、第1の3Dビデオ画像及び第2の3Dビデオ画像をそれぞれ生成することで、ユーザーがヘッドマウント機器におけるレンズを通して視聴するときに、より大きな視野角で視聴することができ、ユーザーの体験が向上する。したがって、従来のヘッドマウント機器における3Dビデオ視聴時の視野角が狭いという問題を解決することができる。また、第1の3Dビデオ画像のエッジ部分及び第2の3Dビデオ画像のエッジ部分に対して平滑化処理を行うことで、ユーザーが3Dビデオ画像を視聴するときに、3Dビデオ画像のエッジに鋸歯が生じることがなく、3Dビデオ画像のエッジ部分の画像が鮮明になる。また、本発明において、さらに眼部観察位置マトリックスを設けることで、3Dビデオ画像の観察角度の変換を実現して、ユーザーが異なる角度を選択して3Dビデオ画像を視聴可能となり、ユーザーの体験が向上する。
以上は、あくまでも本発明の好ましい実施例であり、本発明の保護範囲を限定するものではない。本発明の精神及び原則内になされたいかなる補正、均等的置換、改善等は、いずれも本発明の保護範囲内に含まれるものとする。

Claims (9)

  1. 3D背景モデルを確立して、前記3D背景モデルにビデオ画像表示領域を設けるステップと、
    ビデオ画像データを取得し、前記ビデオ画像データを前記3D背景モデルのビデオ画像表示領域に投影するステップと、
    ヘッドマウント機器の表示パラメータを取得して、前記表示パラメータに基づいて、前記ビデオ画像データが投影された3D背景モデルに対して画像変形処理を行い、左眼に対応する第1の3Dビデオ画像及び右眼に対応する第2の3Dビデオ画像をそれぞれ生成するステップと、
    前記ビデオ画像表示領域において、前記第1の3Dビデオ画像及び前記第2の3Dビデオ画像をそれぞれ2つのレンズで屈折させて表示するステップと、
    眼部観察位置マトリックスを設け、ユーザーの観察角度を取得し、前記ユーザーの観察角度に応じて、前記眼部観察位置マトリックスを修正するステップと、
    前記眼部観察位置マトリックスに基づいて、3D背景モデルの頂点に対するマトリックス演算を行って、新しい頂点を得て、該新しい頂点に対して着色処理を行って、視角に対応する3D背景モデルを生成するステップと、
    を含むことを特徴とする3D画像の表示方法。
  2. 前記左眼に対応する第1の3Dビデオ画像及び前記右眼に対応する第2の3Dビデオ画像をそれぞれ生成した後に、
    前記左眼に対応する前記第1の3Dビデオ画像のエッジ部分及び前記右眼に対応する前記第2の3Dビデオ画像のエッジ部分に対してそれぞれ画像平滑化処理を行うステップと、
    前記ビデオ画像表示領域において、前記画像平滑化処理後の前記第1の3Dビデオ画像及び前記第2の3Dビデオ画像をそれぞれ表示するステップと、
    をさらに含むことを特徴とする請求項1に記載の方法。
  3. 前記ビデオ画像データが投影された3D背景モデルに対して画像変形処理を行い、左眼に対応する前記第1の3Dビデオ画像及び右眼に対応する前記第2の3Dビデオ画像をそれぞれ生成するステップは、
    前記ヘッドマウント機器の表示領域の長さと幅の値に応じて、第1の枠体及び第2の枠体を生成するステップと、
    前記ビデオ画像データが投影された3D背景モデルに対して画像変形処理を行い、左眼に対応する第1のビデオデータ及び右眼に対応する第2のビデオデータをそれぞれ生成するステップと、
    前記第1のビデオデータを前記第1の枠体に配置し、左眼に対応する前記第1の3Dビデオ画像を生成するとともに、前記第2のビデオデータを前記第2の枠体に配置し、右眼に対応する前記第2の3Dビデオ画像を生成するステップと、
    を含むことを特徴とする請求項2に記載の方法。
  4. 前記左眼に対応する第1の3Dビデオ画像のエッジ部分及び前記右眼に対応する第2の3Dビデオ画像のエッジ部分に対してそれぞれ画像平滑化処理を行うステップは、
    前記第1の3Dビデオ画像のエッジ部分及び前記第2の3Dビデオ画像のエッジ部分に対して、畳み込み平滑化アルゴリズムにより、画像平滑化処理を行うステップを含み、
    そのうち、前記第1の3Dビデオ画像のエッジ部分とは、前記第1の3Dビデオ画像の中心との距離が予め設定された値より大きい領域を指し、前記第2の3Dビデオ画像のエッジ部分とは、前記第2の3Dビデオ画像の中心との距離が予め設定された値より大きい領域を指す、
    ことを特徴とする請求項2に記載の方法。
  5. 前記第1の3Dビデオ画像のエッジ部分及び前記第2の3Dビデオ画像のエッジ部分に対して、畳み込み平滑化アルゴリズムにより、画像平滑化処理を行うステップは、
    前記第1の3Dビデオ画像のエッジ部分及び前記第2の3Dビデオ画像のエッジ部分における各画素点のそれぞれに対して、前記画素点の周囲の画素点を採集して、画素近傍マトリックスを構成するステップと、
    前記画素近傍マトリックスと予め設定された畳み込み重みマトリックスに対して重み付け演算を行って、新しい値を得て、当該新しい値で当該画素点の元の値を置き換えるステップと、
    を含むことを特徴とする請求項4に記載の方法。
  6. 視角平行移動パラメータを取得し、前記視角平行移動パラメータに基づいて、前記3D背景モデルに対して平行移動演算を行って、新しい3D背景モデルを得るステップをさらに含むことを特徴とする請求項1〜5のいずれか1項に記載の方法。
  7. 前記3D背景モデルは、3Dシアターモデルであり、
    そのうち、前記3Dシアターモデルにおけるスクリーンモデルは、対応するビデオ画像表示領域であることを特徴とする請求項1〜5のいずれか1項に記載の方法。
  8. 3D背景モデルを確立して、前記3D背景モデルにビデオ画像表示領域を設けるための背景処理モジュールと、
    前記背景処理モジュールに接続され、ビデオ画像データを取得して該ビデオ画像データを前記3D背景モデルのビデオ画像表示領域に投影するとともに、ヘッドマウント機器の表示パラメータを採集して、該ヘッドマウント機器の表示パラメータを画像処理モジュールに送信するための採集処理モジュールと、
    前記採集処理モジュールに接続され、前記表示パラメータに基づいて、前記ビデオ画像データが投影された3D背景モデルに対して画像変形処理を行い、左眼に対応する第1の3Dビデオ画像及び右眼に対応する第2の3Dビデオ画像をそれぞれ生成するための画像処理モジュールと、
    前記採集処理モジュール及び前記画像処理モジュールにそれぞれ接続され、前記ビデオ画像表示領域において、前記第1の3Dビデオ画像及び前記第2の3Dビデオ画像をそれぞれ2つのレンズで屈折させて表示するための表示モジュールと、
    前記画像処理モジュールに接続され、眼部観察位置マトリックスを設けるとともに、ユーザーの観察角度を取得した後に、該ユーザーの観察角度に応じて前記眼部観察位置マトリックスを修正するための視角調整モジュールを含み、
    前記画像処理モジュールは、前記眼部観察位置マトリックスに基づいて、前記3D背景モデルの頂点に対するマトリックス演算を行って、新しい頂点を得ることと、該新しい頂点に対して着色処理を行って、視角に対応する3D背景モデルを生成することと、に用いられる、
    ことを特徴とするヘッドマウント機器。
  9. 前記画像処理モジュールは、さらに、前記ヘッドマウント機器の表示領域の長さと幅の値に応じて、第1の枠体及び第2の枠体を生成することと、前記ビデオ画像データが投影された前記3D背景モデルに対して画像変形処理を行い、左眼に対応する第1のビデオデータ及び右眼に対応する第2のビデオデータをそれぞれ生成することと、前記第1のビデオデータを前記第1の枠体に配置し、左眼に対応する第1の3Dビデオ画像を生成することと、前記第2のビデオデータを前記第2の枠体に配置し、右眼に対応する第2の3Dビデオ画像を生成することと、前記第1の3Dビデオ画像のエッジ部分及び前記第2の3Dビデオ画像のエッジ部分に対してそれぞれ画像平滑化処理を行うことと、に用いられることを特徴とする請求項8に記載のヘッドマウント機器。
JP2017530067A 2014-12-31 2015-12-28 3d画像の表示方法及びヘッドマウント機器 Active JP6384940B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201410854774.0A CN104581119B (zh) 2014-12-31 2014-12-31 一种3d图像的显示方法和一种头戴设备
CN201410854774.0 2014-12-31
PCT/CN2015/099194 WO2016107519A1 (zh) 2014-12-31 2015-12-28 一种3d图像的显示方法和一种头戴设备

Publications (2)

Publication Number Publication Date
JP2018505580A JP2018505580A (ja) 2018-02-22
JP6384940B2 true JP6384940B2 (ja) 2018-09-05

Family

ID=53096193

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017530067A Active JP6384940B2 (ja) 2014-12-31 2015-12-28 3d画像の表示方法及びヘッドマウント機器

Country Status (4)

Country Link
US (1) US10104358B2 (ja)
JP (1) JP6384940B2 (ja)
CN (1) CN104581119B (ja)
WO (1) WO2016107519A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104581119B (zh) * 2014-12-31 2017-06-13 青岛歌尔声学科技有限公司 一种3d图像的显示方法和一种头戴设备
CN104898280B (zh) * 2015-05-04 2017-09-29 青岛歌尔声学科技有限公司 一种头戴式显示器的显示方法和头戴式显示器
CN106680995A (zh) * 2015-11-05 2017-05-17 丰唐物联技术(深圳)有限公司 显示控制方法及装置
CN105915877A (zh) * 2015-12-27 2016-08-31 乐视致新电子科技(天津)有限公司 一种三维视频的自由观影方法及设备
CN105657407B (zh) * 2015-12-31 2018-11-23 深圳纳德光学有限公司 头戴显示器及其双目3d视频显示方法和装置
CN105915885A (zh) * 2016-03-02 2016-08-31 优势拓展(北京)科技有限公司 鱼眼图像的3d交互显示方法和系统
CN109996060B (zh) * 2017-12-30 2021-09-03 深圳多哚新技术有限责任公司 一种虚拟现实影院系统及信息处理方法
WO2020146003A1 (en) * 2019-01-07 2020-07-16 Yutou Technology (Hangzhou) Co., Ltd. Mobile device integrated visual enhancement system

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2916076B2 (ja) * 1993-08-26 1999-07-05 シャープ株式会社 画像表示装置
US7907794B2 (en) * 2007-01-24 2011-03-15 Bluebeam Software, Inc. Method for aligning a modified document and an original document for comparison and difference highlighting
CN101309389A (zh) * 2008-06-19 2008-11-19 深圳华为通信技术有限公司 一种合成可视图像的方法、装置和终端
CN101533156A (zh) * 2009-04-23 2009-09-16 天津三维成像技术有限公司 利用单片显示器件制作的头盔式立体显示器
CN101605271B (zh) * 2009-07-08 2010-10-13 无锡景象数字技术有限公司 一种基于单幅图像的2d转3d方法
CN101661163A (zh) * 2009-09-27 2010-03-03 合肥工业大学 增强现实系统的立体头盔显示器
CN102238396B (zh) * 2010-04-28 2014-05-07 周修平 立体视觉的影像转换方法、成像方法及系统
US8446461B2 (en) * 2010-07-23 2013-05-21 Superd Co. Ltd. Three-dimensional (3D) display method and system
JP2012044407A (ja) * 2010-08-18 2012-03-01 Sony Corp 画像処理装置および方法、並びにプログラム
JP5874176B2 (ja) * 2011-03-06 2016-03-02 ソニー株式会社 表示装置、並びに中継装置
WO2012147702A1 (ja) 2011-04-28 2012-11-01 シャープ株式会社 ヘッドマウントディスプレイ
JP2013050558A (ja) * 2011-08-30 2013-03-14 Sony Corp ヘッド・マウント・ディスプレイ及び表示制御方法
CN103327352B (zh) * 2013-05-03 2015-08-12 四川虹视显示技术有限公司 采用串行处理方式实现双显示屏3d显示的装置及方法
GB201310376D0 (en) * 2013-06-11 2013-07-24 Sony Comp Entertainment Europe Head-mountable apparatus and systems
CN104581119B (zh) * 2014-12-31 2017-06-13 青岛歌尔声学科技有限公司 一种3d图像的显示方法和一种头戴设备

Also Published As

Publication number Publication date
US20170201734A1 (en) 2017-07-13
JP2018505580A (ja) 2018-02-22
WO2016107519A1 (zh) 2016-07-07
CN104581119B (zh) 2017-06-13
CN104581119A (zh) 2015-04-29
US10104358B2 (en) 2018-10-16

Similar Documents

Publication Publication Date Title
JP6384940B2 (ja) 3d画像の表示方法及びヘッドマウント機器
JP6511386B2 (ja) 情報処理装置および画像生成方法
KR102239686B1 (ko) 단일 깊이 추적 순응-수렴 솔루션
JP6023801B2 (ja) シミュレーション装置
EP3035681B1 (en) Image processing method and apparatus
WO2019041351A1 (zh) 一种3d vr视频与虚拟三维场景实时混叠渲染的方法
CN107333121A (zh) 曲面屏幕上移动视点的沉浸式立体渲染投影系统及其方法
CN110850977A (zh) 一种基于6dof头戴式显示器的立体图像交互方法
JP2019079552A (ja) イメージ形成における及びイメージ形成に関する改良
CN104777620B (zh) 虚拟现实3d场景用的景深识别光学装置及其成像方法
CN106412556B (zh) 一种图像生成方法及装置
WO2018086295A1 (zh) 一种应用界面显示方法及装置
CN109510977A (zh) 使用同心观察圆来生成立体光场全景
CA2984785A1 (en) Virtual reality editor
CN205195880U (zh) 观看设备及观看系统
GB2569574A (en) Head-mountable apparatus and methods
CN105556373A (zh) 图像显示装置、图像处理装置和图像处理方法
WO2018176927A1 (zh) 虚拟主动视差计算补偿的双目渲染方法及系统
WO2023056803A1 (zh) 一种全息展示方法及装置
CN108287609B (zh) 用于ar眼镜的图像绘制方法
JP4042356B2 (ja) 画像表示システムおよび画像表示システム用画像補正サービス方法
CN104240281A (zh) 一种基于Unity3D引擎的虚拟现实头戴式设备
US12143561B2 (en) Image generation system and method
CN104216126A (zh) 一种变焦3d显示技术
JP2020530218A (ja) 没入型視聴覚コンテンツを投影する方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170627

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170627

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20170627

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180123

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180420

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180724

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180802

R150 Certificate of patent or registration of utility model

Ref document number: 6384940

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250