JP6855313B2 - 画像表示システム、画像表示装置および画像表示方法 - Google Patents

画像表示システム、画像表示装置および画像表示方法 Download PDF

Info

Publication number
JP6855313B2
JP6855313B2 JP2017091011A JP2017091011A JP6855313B2 JP 6855313 B2 JP6855313 B2 JP 6855313B2 JP 2017091011 A JP2017091011 A JP 2017091011A JP 2017091011 A JP2017091011 A JP 2017091011A JP 6855313 B2 JP6855313 B2 JP 6855313B2
Authority
JP
Japan
Prior art keywords
image data
image
information
synchronizing
embedding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017091011A
Other languages
English (en)
Other versions
JP2018191098A (ja
JP2018191098A5 (ja
Inventor
洋一 橿渕
洋一 橿渕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017091011A priority Critical patent/JP6855313B2/ja
Priority to US15/958,532 priority patent/US10728531B2/en
Publication of JP2018191098A publication Critical patent/JP2018191098A/ja
Publication of JP2018191098A5 publication Critical patent/JP2018191098A5/ja
Application granted granted Critical
Publication of JP6855313B2 publication Critical patent/JP6855313B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/167Synchronising or controlling image signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)
  • Optics & Photonics (AREA)

Description

本発明は、複数の画像データ同士の同期をとるための技術に関する。
近年、現実世界と仮想世界をリアルタイムにシームレスに融合させる技術として複合現実感、いわゆるMR(Mixed Reality)技術を利用した画像表示システムが知られている。このような画像表示システムでは、ビデオシースルーHMD(Head Mounted Display)を利用して、HMD装着者の瞳位置から観察される被写体と略一致する被写体をビデオカメラなどで撮像して撮像映像を得るものが知られている。この画像表示システムでは、得られた撮像映像にCG(Computer Graphics)を重畳表示した画像をHMD内部パネルに表示する。HMD装着者は、HMD内部パネルに表示される、CGが重畳表示された画像を観察する。
その際、撮像映像を相互に時間同期することが重要となる場合もある。例えば、ユーザが立体視可能なHMDでは、左眼と右眼とのそれぞれに対応して同時に2つの撮像映像を撮像し、それぞれの撮像映像について異なる画像処理を実行したり、CGの重畳処理を行う外部装置へと送信する場合がある。
しかしながら、左眼と右眼とに対応する撮像映像に対して異なる画像処理を行ったり、外部の装置へと送信する場合、画像処理に起因する遅延時間が異なったり、通信状況によって送信に要する時間が異なる場合がある。特許文献1は、複数の映像入力に対し異なる画像処理を行う場合にも、複数の映像同士が同期できるように、撮像が行われた時刻をタイムスタンプ情報として発行する画像処理装置を開示する。特許文献1に記載された画像処理装置は、発行されたタイムスタンプ情報を撮像映像に含まれる画像に直接埋め込むことによって映像の同期をとっている。このようにタイムスタンプ情報を撮像映像に含まれる画像に埋め込むことで、タイムスタンプ情報を撮像映像とは別個に記憶して両者を関連付けるという処理が不要となり、画像処理装置にかかる負荷を小さくすることができる。
特開2008−167348
しかし、複数の映像同士の同期をとるための情報としてタイムスタンプ情報を用い、撮像映像に含まれる画像に直接タイムスタンプ情報を埋め込む方法では、タイムスタンプ情報を埋め込むことで、画像の画質が劣化する。従って、ユーザに対して劣化した画像を表示せざるを得ず、複合現実感が損なわれるおそれがある。
上記課題を解決するために、本発明は、現実空間を第1の撮像手段で撮像した第1の画像データ、第2の画像データと、第2の撮像手段で撮像した第3の画像データ、第4の画像データと、を取得する取得手段と、前記取得した第1から第4の画像データそれぞれに対して、前記第1から第4の画像データ同士の同期をとるための情報を、各画像データを構成する画素のうち少なくとも1つの画素のデータに埋め込む埋め込み手段と、前記第1から第4の画像データそれぞれに埋め込まれた同期をとるための情報に基づいて、前記第1から第4の画像データ同士の同期をとる同期手段と、前記同期のとられた第1の画像データと第3の画像データとに基づいて前記第2の画像データおよび第4の画像データに重畳させるCGの位置を算出する算出手段と、前記算出された位置に基づいて、前記第2の画像データおよび第4の画像データにCGを重畳させて第1の合成画像データおよび第2の合成画像データを生成する生成手段と、前記生成された第1の合成画像データおよび第2の合成画像データを第1の表示部と第2の表示部に表示する表示手段と、を有し、前記埋め込み手段は、前記第1の合成画像データおよび第2の合成画像データが前記第1の表示部および第2の表示部に表示される際に相対的に視認性の低い領域に含まれる画素に対応する前記第1から第4の画像データ上の画素に前記同期を取るための情報を埋め込むことを特徴とする。
本発明によれば、複数入力される撮像映像を同期化するためにタイムスタンプ情報を埋め込んだ場合にも、画質の劣化を軽減し、違和感のない複合現実感をユーザに提供することができる。
画像表示システムの機能ブロック図。 タイムスタンプ情報付与の詳細を説明するためのタイミングチャート。 撮像映像に対する遅延処理を表す機能ブロック図。 タイムスタンプ埋め込み部の機能ブロック図。 タイムスタンプ埋め込み部の動作を示すタイミングチャート。 画像同期部の機能ブロック図。 タイムスタンプ情報解析部の動作を示すフローチャート。 HMDの表示部の説明図。 プリズム体を通じてユーザが見る映像の説明図。 第2実施形態の表示部の機能ブロック図。 グラデーション処理された映像の説明図。 第3実施形態の表示部の機能ブロック図 (a)は合成画像の説明図、(b)はプリズム体を通じてユーザが見る映像の説明図。 (a)はタイムスタンプ情報が埋め込まれる領域の説明図、(b)は歪み補正の詳細を表す説明図。
[第1実施形態]
以下、本発明の第1実施形態を、図面を参照しつつ詳細に説明する。
図1に、本発明の一実施形態による画像表示システムの機能ブロック図を示す。図示されるように、画像表示システムは、撮像部10、画像処理部11、画像合成部12および表示部13を有する。撮像部10はそれぞれユーザの左眼および右眼の位置に対応して設けられた2つのカメラ101、102を有し、これらのカメラが撮像を行って撮像映像1、2をそれぞれ生成する。画像処理部11は、撮像映像に対して画像処理を行う。画像合成部12は、撮像映像1、2の内容に応じて撮像映像1、2に重畳するCGデータの位置を演算してそれぞれ表示映像を生成する。表示部13は、CGが合成された撮像映像1、2を、それぞれユーザの左眼と右眼に対応する2つのディスプレイ131、132に表示する。
撮像部10、画像処理部11、および表示部13は、本画像表示システムにおける画像表示装置に相当するヘッドマウントディスプレイ(以下、HMD)に備えられている。一方、画像処理部12は、画像表示装置(PC)に備えられている。HMDと画像処理装置は、互いに有線方式または無線方式により接続され、それぞれCPU、ROM、RAM等のハードウェア構成を備える。そして、CPUがROM等に格納されたプログラムを実行することにより、例えば、後述する各機能構成やフローチャートの処理が実現される。RAMは、CPUがプログラムを展開して実行するワークエリアとして機能する記憶領域を有しており、ROMは、CPUが実行するプログラム等を格納する記憶領域を有する。以上の構成により、撮像部10を含むHMDを頭部に装着したユーザは、現実空間を撮影された映像にCGを重畳した映像をHMD内部のディスプレイを通じて観察することができ、現実と仮想世界とがリアルタイムに融合した複合現実感を体感することができる。
本実施形態では、2つのカメラ101、102は、視差を有する2つの撮像映像1、2をそれぞれ撮像する。画像処理部11は、撮像映像1、2に各種画像処理を実行し、かつ、画像処理された撮像映像1、2に撮像時刻を表すタイムスタンプ情報の埋め込み処理を行う。画像合成部12は、タイムスタンプ情報が埋め込まれた撮像映像1、2にCGを合成する画像合成処理を行う。
表示部13は、CGが合成された撮像映像1、2をそれぞれディスプレイ131、132に表示する。このように表示することで、ユーザの左眼および右眼に視差に応じた異なる映像が表示され、立体視および複合現実感の体験が可能となる。
以下、本実施形態の画像表示システムの各機能部の詳細を説明する。撮像部10は、10〜100msの周期でフレームごとに現実空間における被写体像を撮影する、CCDやCMOS等の半導体素子を用いたカメラ101、102を有する。カメラ101、102は、互いに異なるカメラデバイスであってもよく、また、異なるフレームレートで動作してもよい。
本実施形態では、説明の簡素化のためにカメラ101、102共に60Hz(16.67ms周期)で撮影を行うものとして説明する。カメラ101は、撮像した画像とともに垂直同期信号、水平同期信号、ブランキング信号などの1画面分の映像の表示期間を示す信号を撮像映像1として出力する。同様に、カメラ102は、撮像した画像とともに垂直同期信号、水平同期信号、ブランキング信号などの1画面分の映像の表示期間を示す信号を撮像映像2として出力する。
画像処理部11は、撮像映像1、2をカメラ101、102より取得する。そして、撮像映像1、2のそれぞれについて、垂直同期信号により映像のフレーム始まりを検知し、水平同期信号により1フレーム中の画像におけるラインの始まりを検知し、ブランキング信号により有効画像領域であるかを検知する。また、画像処理部11は、複数の映像の同期をとるための情報(タイムスタンプ情報)を生成するタイムスタンプ生成部110と、撮像映像1、2のそれぞれに対してタイムスタンプ情報を付与するタイムスタンプ付与部111、112を有する。
以下、カメラ101から出力されて画像処理部11に入力される撮像映像1に対する処理について説明する。タイムスタンプ生成部110は、常に内部で時刻を計測する。時刻の計測方法としては、内部にカウンタを持ち規定サイクルをカウントする方法や、CPUなどの処理装置などを使用したタイマー、外部からの基準信号などでカウントアップされるID情報などの方法が挙げられるが、これらに限定されるわけではない。
画像処理部11に入力される撮像映像1とタイムスタンプ生成部110の出力とはタイムスタンプ付与部111に入力される。タイムスタンプ付与部111は、入力される撮像映像1に応じてタイムスタンプ生成部110よりタイムスタンプ情報を取得し、撮像映像1にタイムスタンプ情報を付与する。なお、タイムスタンプ付与部111は、撮像映像1に対してタイムスタンプ情報を付与するが、これは、後述する“埋め込み”とは異なり、タイムスタンプ情報を撮像映像の各フレームに付帯させる(紐付ける)ものである。
タイムスタンプ付与部111からの撮像映像1の出力およびタイムスタンプ情報の出力は、それぞれ2分岐される。撮像映像1の一方の出力は、画像補正部1114に入力される。撮像映像1の他方の出力は、画像補正部1115に入力される。同様に、タイムスタンプ付与部112から出力されるタイムスタンプ情報の一方の出力は画像補正部1124に入力され、他方の出力は画像補正部1125に入力される。
一方の撮像映像はCGを合成して合成映像を生成する際の背景として用いられ、他方の撮像画像はマーカ、自然特徴等を検出してカメラ101、102(すなわちHMD)の位置姿勢を計算するための画像として用いられる。このようにそれぞれ用途が異なることから、撮像映像1、2を2分岐させている。つまり、用途が異なる複数の撮像画像には適した画像処理も異なることから、上記のとおり、分離生成して異なる画像処理を施すようにしている。
本実施形態では、撮像映像1、2の各フレーム画像を2分岐させる際、背景用画像と位置姿勢算出用画像とは同じ画像であると説明する。すなわち、撮像映像1のフレーム画像については、その背景用画像も位置姿勢算出用画像も元の撮像映像1のフレーム画像と同じであり、撮像映像2に関しても同様である。ただし、背景用画像と位置姿勢算出用画像とは同じ画像である必要はなく、画角や解像度を異ならせるようにしてもよい。
画像補正部1114で画像補正処理された撮像映像1の出力は、色変換処理を行う色変換部1116に入力される。色変換部1116で色変換処理された撮像映像1の出力は、タイムスタンプ埋め込み部1118に入力される。なお、タイムスタンプ付与部111によって撮像映像に対してタイムスタンプ情報が付与(紐付け)されてから、タイムスタンプ埋め込み部1118に入力されるまで、撮像映像に対してタイムスタンプ情報は紐付けされたままである。そして、タイムスタンプ埋め込み部1118は、色変換処理された撮像映像1に対してタイムスタンプ情報を埋め込んで画像合成部12に出力する。
撮像映像1の他方の出力およびタイムスタンプ情報の他方の出力に対しては、画像補正部1115、色変換部1117およびタイムスタンプ埋め込み部1119で同様の処理がなされる。また、カメラ102から出力されて画像処理部11に入力される撮像映像2に対する処理は撮像映像1と同様であるので説明は省略する。なお、本実施形態では、カメラ101および102に対してそれぞれ同一の画像処理を行っているが、異なる画像処理を行うこともできる。
図2に、タイムスタンプ付与部111、112におけるタイムスタンプ情報付与の詳細を説明するためのタイミングチャートを示す。この図では、タイムスタンプ生成部110は、実時間5msごとにカウントアップすることで時刻の計測をしているものとして説明する。図2には撮像映像1の垂直同期信号および撮像映像2の垂直同期信号も示される。撮像映像1の垂直同期信号は、信号の立ち上がりを基準にフレームの切り替わりを示しており、次の立ち上がりまでの期間は16.67msである。このとき、タイムスタンプ付与部112は、撮像映像1の垂直同期信号の立ち上がりを検知し、その時点におけるタイムスタンプ生成部110で生成したタイムスタンプ情報を取得する。撮像映像2についても同様である。
撮像映像1の垂直同期信号の立ち上がり時点ではタイムスタンプ情報は“2”であり、次の垂直同期信号の立ち上がりでは“5”である。以降、このようにして、タイムスタンプ付与部111は、撮像映像1の垂直同期信号の立ち上がりのタイミングにおけるタイムスタンプ生成部110からの入力情報をタイムスタンプ情報として発行する。タイムスタンプ付与部112は、撮像映像2に対して、上述の撮像映像1に対する処理と同様の動作を行う。
このように、タイムスタンプ付与部111、112は、入力される撮像映像1のタイミングに応じてタイムスタンプ生成部110よりタイムスタンプ情報を取得し、撮像映像1、撮像映像2にそれぞれタイムスタンプ情報を発行する。そして、タイムスタンプ付与部111は、タイムスタンプ情報を撮像映像の各フレームに紐付ける(付帯させる)。なお、本実施形態においては、タイムスタンプ付与部111、112が撮像映像1の垂直同期信号の立ち上がりに応じてタイムスタンプ情報を更新する構成について説明した。しかし、タイムスタンプ付与部111、112の構成はこれに限定されるものではない。例えば水平同期信号に応じてタイムスタンプ情報を更新してもよい。また、撮像映像1、2のどちらかについて入力される垂直同期信号に応じてタイムスタンプ情報を更新するなどしてもよい。従って、タイムスタンプ付与部111、112は、入力される撮像映像1、2のタイミングを判別できる任意の手段を用いることができる。
以下、撮像映像1に対して、画像補正部1114、1115、色変換部1116、1117、タイムスタンプ埋め込み部1118、1119により実行される処理を説明する。なお、撮像映像2に対して画像補正部1124、1125、色変換部1126、1127、タイムスタンプ埋め込み部1128、1129により実行される処理は、撮像映像1に対して実行される処理と同様であるので説明を省略する。
図3は、画像補正部1114、1115によって行われる撮像映像に対する遅延処理を表す機能ブロック図である。
図3において、画像補正部1114のブロック311〜313とブロック314〜315は、それぞれ、入力される撮像映像1に対して画像補正処理を行う。ここでの画像補正処理とは、カメラの画素の欠損を補正するカメラ101、102の画素配列がベイヤー配列のカメラである場合はベイヤーデータからRGB信号を生成するベイヤー補間処理、撮像の光学特性を補正するシェーディング補正などである。
これらの画像補正処理の内容自体には特に制限はないことから、本実施形態においては、各ブロック311〜315における画像補正処理は、それぞれ単に処理A〜Eとして記載し、その処理内容については説明を省略する。また、画像補正部1114と画像補正部1115とでは異なる画像補正処理を行うものとして説明を行う。
画像補正部1114のブロック311と画像補正部1115のブロック314には、ともに図3において撮像映像1が入力される。図中では入力される撮像映像1をD1として示す。同様に、図中では、ブロック311〜315により処理A〜Eがそれぞれ行われた撮像映像1がそれぞれDa〜Deとして示される。
一方、画像補正部1114のブロック321と画像補正部1115のブロック324には、ともに図3においてTとして示されるタイムスタンプ情報が入力される。
ブロック311は、撮像映像1に対して処理Aを実行し、処理Aが実行された撮像映像1を出力する。同様に、ブロック312〜315は、入力された撮像映像1に対して処理B〜Eをそれぞれ実行して撮像映像1を出力する。この際、各ブロック311〜315で処理A〜処理Eを実行すると、処理内容に応じて処理時間の遅延がそれぞれ発生する。
図3のブロック321〜325は、それぞれブロック311〜315から処理A〜Eの遅延情報を受け取り、受け取った遅延情報に基づいてタイムスタンプ情報Tを出力する。例えば、ブロック311における処理Aによる遅延情報が1msである場合、ブロック321は遅延情報(1ms)を受け取り、タイムスタンプTを1msだけ遅延させた上でブロック322へと出力する。これにより、ブロック311において1msの遅延が発生しても、タイムスタンプ情報Tも1ms遅延してから出力されるため、タイムスタンプ情報Tは映像1と紐付された状態のままとなる。
画像補正部1114および1115は、補正処理を実行するブロック数が異なり、また、実行する補正処理の内容も異なるので、発生する遅延時間も相異なる。しかしながら、本実施形態では、上述したように、各ブロック321〜325において遅延情報処理を実行する。これにより、タイムスタンプ付与部111によって撮像映像に対してタイムスタンプ情報が付与されてから、タイムスタンプ埋め込み部1118に入力されるまで、タイムスタンプ情報Tは映像に紐付けされたままとなる。
色変換部1116、1117は、入力される撮像映像のRGB成分をYUV成分へと変更する演算処理を行い、色空間の変換を行う。RGBからYUVの変換に関しては例えば以下のような式を用いて実現する。
Y = 0.299×R + 0.587×G + 0.114×B
U = −0.169×R − 0.331×G + 0.500×B
V = 0.500×R − 0.419×G − 0.081×B
ここで、一般的に、Yは輝度信号、UとVは色差信号と表現される。また、人間の眼は輝度信号の変化に対しては敏感であるが、色差信号の変化には鈍感であるため、色変換部1116、1117においてはUVデータを圧縮したYUV422フォーマットやYUV411フォーマットなどの演算を行う構成としてもよい。
次に、タイムスタンプ埋め込み部1118により、画像処理の施された撮像映像1、2に対してタイムスタンプの埋め込みを行う。画像処理を実行する前に撮像映像のデータにタイムスタンプを埋め込んでしまうと、画像処理によって画素のデータ(画素値)が変更されるため、画像処理後のタイミングでタイムスタンプの埋め込みを行う。タイムスタンプ埋め込み部1118について詳細に説明する。図4にタイムスタンプ埋め込み部1118の詳細な機能ブロック図を示す。なお、タイムスタンプ埋め込み部1119も同様の構成であるので説明は省略する。
タイムスタンプ埋め込み部1118は、ラインカウンタ401、ピクセルカウンタ402、埋め込み判定部403、埋め込み実行部404を有する。ラインカウンタ401には垂直同期信号および水平同期信号が入力され、撮像映像1に含まれる画像における垂直方向の画素位置がカウントされる。ピクセルカウンタ402には水平同期信号が入力され、水平方向の画素位置がカウントされる。埋め込み判定部403にはラインカウンタ401とピクセルカウンタ402の出力がそれぞれ入力される。埋め込み判定部403は、これらの入力に応じて求められる入力ピクセル位置に基づいて、タイムスタンプ情報の埋め込み位置を識別し、埋め込み実行部に対して埋め込み許可信号を発行する。また、埋め込み判定部403は、垂直同期信号および水平同期信号を出力する。
埋め込み実行部404は、埋め込み判定部403から入力される埋め込み許可信号に応じて、撮像映像1に対して識別された埋め込み位置にタイムスタンプ情報を埋め込む。ここで、上述のように人間の眼は色差信号の変化には鈍感である。このことから、本実施形態では、撮像映像1を構成する画像における所定の画素におけるUV変換後の色差信号U/Vに対してタイムスタンプ情報の埋め込み処理を行う。しかし、タイムスタンプ情報の埋め込み先はこの形態に限定されるものではなく、例えばRGB信号等の他の信号にタイムスタンプ情報を埋め込んでもよい。
埋め込み許可信号が発行される垂直方向および水平方向の画素位置によって、撮像映像1に対するタイムスタンプ情報を埋め込む画素が選択される。撮像映像1におけるタイムスタンプ情報を埋め込む画素の位置は、ディスプレイ131、132を通じてユーザに表示される画像においてユーザにとって相対的に視認性が低い位置、あるいは視認されない位置となるように定められる。その詳細は後述する。
図5に、タイムスタンプ埋め込み部1118におけるタイムスタンプ情報の埋め込み処理のタイミングチャートを示す。図中において、ラインカウント値、ピクセルカウント値は、ラインカウンタ401およびピクセルカウンタ402から出力されるカウント値をそれぞれ示す。
入力色差信号は、色変換部1116から入力されるYUV信号のうち、色差信号であるUV信号を示している。また、タイムスタンプ情報Tは、色変換部1116を通じて入力される情報である。このとき、埋め込み判定部403から出力される埋め込み許可信号は、図5のように変化するものとする。
本実施形態における埋め込み許可信号は、4bitの信号であり、タイムスタンプ情報Tと同じbit幅を持っている。埋め込み実行部404は、埋め込み許可信号を2進法で表したときの各bitを、タイムスタンプ情報の各bitを入力色差信号に埋め込むためのイネーブル信号として認識する。具体的には、埋め込み許可信号が0x1である場合には、タイムスタンプ情報Tを2進法で表したときの第1bitによって入力色差信号の最下位bitを置換して出力色差信号を生成する。同様に、埋め込み許可信号が0x2、0x4および0x8である場合には、それぞれタイムスタンプ情報Tを2進法で表したときの第2bit、第3bitおよび第4bitによって入力色差信号の最下位bitを置換して出力色差信号を生成する。
以下、図5を参照して上記処理の詳細を説明する。図5において、タイムスタンプ情報T=0xA(2進法表記では1010)であり、その第1bitは0、第2bitは1、第3bitは0、第4bitは0である。
埋め込み許可信号が“0x1”のとき、埋め込み実行部404は、この埋め込み許可信号を、タイムスタンプ情報Tを表す4bit信号のうち第1bitを入力色差信号に埋め込むためのイネーブル信号とみなす。埋め込み許可信号が“0x1”のときの入力色差信号は0x6Dであり、その最下位bitは「1」である。従って、最下位bitの「1」をタイムスタンプ情報Tの第1bitである「0」で置き換える。その結果として、入力色差信号の値である0x6Dは1デクリメントされて0x6Cに変更され、この値が出力色差信号として出力される。
埋め込み許可信号が“0x2”のとき、埋め込み実行部404は、この埋め込み許可信号を、タイムスタンプ情報Tを表す4bit信号のうち第2bitを入力色差信号に埋め込むためのイネーブル信号とみなす。埋め込み許可信号が“0x2”のときの入力色差信号は0x8Fであり、その最下位bitは「1」である。従って、最下位bitの「1」をタイムスタンプ情報Tの第2bitである「1」で置き換える。その結果として、入力色差信号の値である0x8Fは変更されず、入力色差信号が出力色差信号としてそのまま出力される。
埋め込み許可信号が“0x4”のとき、埋め込み実行部404は、この埋め込み許可信号を、タイムスタンプ情報Tを表す4bit信号のうち第3bitを入力色差信号に埋め込むためのイネーブル信号とみなす。埋め込み許可信号が“0x4”のときの入力色差信号は0x6Fであり、その最下位bitは「1」である。従って、最下位bitの「1」をタイムスタンプ情報Tの第3bitである「0」で置き換える。その結果として、入力色差信号の値である0x6Fはデクリメントされて0x6Eに変更され、この値が出力色差信号として出力される。
埋め込み許可信号が“0x8”のとき、埋め込み実行部404は、この埋め込み許可信号を、タイムスタンプ情報Tを表す4bit信号のうち第4bitを入力色差信号に埋め込むためのイネーブル信号とみなす。埋め込み許可信号が“0x8”のときの入力色差信号は0x8Eであり、その最下位bitは「0」である。従って、最下位bitの「0」をタイムスタンプ情報Tの第4bitである「1」で置き換える。その結果として、入力色差信号の値である0x8Eはインクリメントされて0x8Fに変更され、この値が出力色差信号として出力される。
このようにして、出力色差信号0x6C、0x8F、0x6E、0x8Fの最下位bitに、「1010」というタイムスタンプ情報Tが埋め込まれる。なお、このタイムスタンプ情報Tを埋め込む処理によって入力色差信号が「1」だけデクリメントまたはインクリメントされる場合があり、結果として画質は劣化する。しかしながら、入力色差信号は最大でも「1」しか変化しないので、入力色差信号が表す色が激しく変化することはなく、画質の劣化を抑制したうえでタイムスタンプ情報を入力色差信号に埋め込むことができる。
このようにして、画像処理部11によりタイムスタンプ情報が埋め込まれた撮像映像1、2は、外部I/Fを介して画像処理装置に送信される。そして、画像処理装置の画像合成部12は、HMDより送信された埋め込まれた撮像映像1、2を外部I/Fを介して受信、取得する。
次に、画像合成部12における、撮像映像1、2に対する処理を説明する。画像合成部12では、画像処理部11から入力される撮像映像1、2に対してCGを重畳し、表示映像として出力する。図1に示されるように、画像合成部12は、異なるタイミングで入力される複数の撮像映像に対して同期処理を行う画像同期部121、同期化された複数の撮像映像を解析することでCG描画位置を計算するCG描画位置演算部122を有する。また、画像合成部12は、演算されたCG描画位置に応じて該当のCGコンテンツを重畳するCG合成部123をも有する。画像同期部121は、HMDと画像処理装置との通信経路の通信状況等により、撮像映像1、2の入力タイミングが異なるものとなった場合に、それぞれの画像内部に埋め込まれたタイムスタンプ情報を比較することによって画像間の同期をとる処理を行う。
図6に、画像同期部121の機能ブロック図を示す。画像同期部121は、撮像映像1に埋め込まれているタイムスタンプ情報を分離するタイムスタンプ情報分離部601、602を有する。また、画像同期部121は、分離された複数のタイムスタンプ情報を解析して画像(撮像映像の各フレーム)の転送を制御するタイムスタンプ情報解析部603をも有する。更に、画像同期部121は、撮像映像をバッファリングするフレームバッファ604、605と、要求に応じてフレームバッファへのライト・リードを制御するメモリコントローラ606、607を有する。
以下、画像処理部11から入力される撮像映像1、2に対するタイムスタンプ情報分離部601、602、タイムスタンプ情報解析部603、フレームバッファ604、605、メモリコントローラ606、607による処理を説明する。
タイムスタンプ情報分離部601は、入力される撮像映像1を構成する画像の上述した埋め込み位置にある画素における上述した出力色差信号からタイムスタンプ情報を分離して復元する。
具体的には、図5に示されるように埋め込み許可信号で指定される埋め込み実行期間におけるラインカウント値から垂直方向の画素位置を求め、ピクセルカウント値水平方向の画素位置を求める。上述したようにタイムスタンプ情報の値は「1010」であり、この値は、ラインカウント値が0x0で、ラインカウンタ値が0x77C、0x77D、0x77Eおよび0x77Fである位置の画素に埋め込まれている。従って、画像の垂直方向の一番下ラインでかつ水平方向に1792〜1795番目の画素のそれぞれの色差信号における第1bitから、入力されるタイムスタンプ情報Tの値「1010」を求めることができる。
このようにタイムスタンプ情報を復元した後に、色差信号の最下位bitを例えばすべて「1」にするか、または「0」にしてもよく、あるいは、タイムスタンプ情報を復元した後の色差信号をそのまま用いるようにしてもよい。
タイムスタンプ情報分離部601は、タイムスタンプ情報と画像データを分離した後に、メモリコントローラ606に対して画像のライト要求を発行して画像データを送るとともに、タイムスタンプ情報をタイムスタンプ情報解析部603へと送る。メモリコントローラ606は、画像ライト要求に応じてフレームバッファ604にライト処理を行う。
タイムスタンプ情報分離部602は、入力される撮像映像2に対して、タイムスタンプ情報解析部603、フレームバッファ605、メモリコントローラ607を通じて同様の処理を行う。
タイムスタンプ情報解析部603は、タイムスタンプ情報分離部601から入力されるタイムスタンプ情報に基づいてメモリコントローラ606に対して画像リード要求を発行する。これに応じてメモリコントローラ606はフレームバッファ604に対してリード処理を行う。また、タイムスタンプ情報解析部603は、タイムスタンプ情報分離部602から入力されるタイムスタンプ情報に基づいてメモリコントローラ607に対して画像リード要求を発行する。これに応じてメモリコントローラ607はフレームバッファ605に対してリード処理を行う。
図7に、タイムスタンプ情報解析部603の動作を示すフローチャートを示す。タイムスタンプ情報解析部603は、入力された複数のタイムスタンプを、時間を基準として並び替えるソート処理を行う(S701)。このとき、一番古いタイムスタンプ情報を基準として、内部のカウンタ値の初期値を設定する(S702)。本実施形態では、タイムスタンプ情報の最小値をカウンタの初期値として設定する。
次に、S702で設定された初期値から内部カウンタの動作を開始する(S703)。このときのカウンタは、画像処理部11に含まれるタイムスタンプ生成部110と同周期のカウンタとする。ソートされたタイムスタンプ情報の最小値から内部カウンタのカウンタ値との比較を開始し(S704)、カウンタ値とタイムスタンプ情報が一致していた場合(S704:Y)、リード要求を発行し(S705)、S706に進む。その他の場合(S704:N)、再度S704を実行する。
S706では、すべてのリード要求が発行済みであるかを判定する(S706)。すべてのリード要求が発行済みではない場合(S706:N)、再度S706を実行する。すべてのリード要求が発行済みである場合(S706:Y)、処理を終了する。このようなステップを毎フレームごとに実行することで、タイムスタンプ情報解析部603は、異なるタイミングで入力される複数の撮像映像同士の時間のずれを正しく設定することが可能となる。
以上のようにして、本実施形態では、撮像映像1の背景用画像、位置姿勢算出用画像、撮像映像2の背景用画像、位置姿勢算出用画像の4つの画像について、正しく画像同士の同期がとられるようになる。
図1に戻ると、CG描画位置演算部122は、入力される複数の撮像映像の画像(撮像映像1の位置姿勢用画像および撮像映像2の位置姿勢用画像)を解析し、HMDの位置姿勢を推定すると共に、CGの描画位置を算出する演算を行う。この計算は複数の撮像映像から求めるので、互いの映像の時間関係が正確に判明しているほど、描画位置算出の精度が向上する。本実施形態の場合、上記のとおり正しく同期がとれているため、精度よくHMDの位置姿勢を推定することができる。
本実施形態では、撮像映像1の位置姿勢用画像および撮像映像2の位置姿勢用画像は、タイムスタンプ情報を参照して正しいタイミングで入力されているので、CG描画位置演算部122は高い精度でCG描画位置を求めることが可能となる。
CG合成部123は、CG描画位置演算部122で求められた描画位置情報に基づいて撮像映像1、2の背景用画像に対してCGを描画し画像の合成処理を行うことで合成画像を生成する。この際、CG合成部123は、CG描画位置を算出する際に用いた位置算出用画像と同期のとれた撮像映像1、2の背景用画像にCGを描画する。
従って、撮像映像の背景用画像に対してCGを意図した位置に配置して合成画像を生成することができ、撮像映像の背景用画像の任意の位置にCGコンテンツを正しいタイミングで配置した複合現実映像(合成画像)を形成することができる。
画像合成部12によって生成された合成画像のデータ(合成画像データ)は、画像処理装置からHMDへと送信される。そして、HMDに設けられた表示部13は、画像合成部12によってCGが合成された映像を、液晶ディスプレイや有機ELディスプレイなどの表示パネルを用いたディスプレイ131、132に表示する。
次に、タイムスタンプ情報埋め込み部1118および1119で行われる、タイムスタンプ情報を埋め込む画素を選択する処理について詳細に説明する。
図8に、表示部13の説明図を示す。表示部13は、ユーザの左眼ELおよび右眼ERの前方にそれぞれ配置されて、ほぼ長方形の表示領域を有するディスプレイ131、132を有する。なお、ディスプレイ131、132はユーザの顔とほぼ平行に配置されるが、説明の都合上、図8ではディスプレイ131、132をいずれもユーザの顔に垂直に配置し拡大して示す。
ディスプレイ131と左眼EL、ディスプレイ132と右眼ERの間には、それぞれ左眼用のプリズム体11Lと右眼用のプリズム体11Rとが配置されている。これらプリズム体11Lとプリズム体11Rとにより光学素子が構成される。プリズム体11Lは、図示されるように略四角柱の形状であって、ユーザの顔に対向する4つの角部をそれぞれ有する。4つの角部のうち、ユーザの鼻に近接する角部は、ユーザがHMDを装着した際に鼻と干渉しないように、ユーザの鼻の形状に合わせてその表示領域を減少させた部分を有する。この実施形態では、ユーザの鼻に近接する角部を切断して表示領域を減少するものとした。
このように切断された部分は、図8において裁頭部12Lとして示される。なお、この実施形態では、表示部13におけるディスプレイ131、132をユーザの鼻と干渉しないようにその表示領域を減少させているが、ユーザの眼窩等、ユーザの顔における任意の部分についても、干渉を避ける形状として表示領域を減少させることができる。
同様に、プリズム体11Rも略四角柱の形状であって、ユーザの顔に対向する4つの角部をそれぞれ有する。4つの角部のうち、ユーザの鼻に近接する角部は、ユーザがHMDを装着した際に鼻とぶつからないようにユーザの鼻の形状に合わせて切断されている。このように切断された部分は、図8において裁頭部12Rとして示される。
なお、ユーザの鼻の形状にあわせて切断された裁頭部12L、12Rの領域は、「鼻逃げ」とも呼称される。本実施形態においては、左眼に対応するディスプレイ131では、ほぼ長方形の形状である表示領域のうち右下の領域が鼻逃げ領域となる。また、右眼に対応するディスプレイ132では、ほぼ長方形の形状である表示領域のうち左下の領域が鼻逃げ領域となる。
プリズム体11Lおよび11Rにより、ディスプレイ131、132から入射した光束はユーザの眼ELおよびERに導かれる。しかし、プリズム体11L、11Rの裁頭部12L、12Rは、上述のようにプリズム体11L、11Rの一部を切断して形成されているので、ディスプレイ131、132から裁頭部12L、12Rに入射した光束はユーザの眼には導かれない。従って、ディスプレイ131、132において裁頭部12L、12Rに対応する、ユーザの鼻側に近接した部分にあたる映像は、ユーザの鼻に向かうにつれてなだらかに減光する。
以上のことから、ディスプレイ131、132に表示される映像において、裁頭部12L、12Rに対応する領域の映像は、ユーザが視認しにくいか、またはユーザが視認できない領域となる。なお、本明細書では、ユーザが視認できない領域および視認しにくい領域を合わせて、相対的に視認性の低い領域と記載する。逆に、相対的に視認性の高い領域とは表示領域の中央等である。本実施形態においては、タイムスタンプ情報を、相対的に視認性が低い領域となる裁頭部12L、12Rの領域に相当する画像データ上の領域に埋め込む。
図9は、本実施形態におけるプリズム体11L、11Rを通じてユーザが見る映像の説明図である。図中において、映像901は、ディスプレイ131に表示されてユーザの左眼がプリズム体を通して観察する映像である。鼻逃げ領域905は、ディスプレイ131から裁頭部12Lを通過した光束がユーザの左眼ELに導かれないことからユーザの鼻に近接する端部に向かって減光している領域である。本実施形態において、タイムスタンプ情報は、鼻逃げ領域905に対応する、撮像映像1において映像901の右下の領域903で示される位置の画素に埋め込まれる。
図9において、映像902は、ディスプレイ132に表示されてユーザの右眼がプリズム体を通して観察する映像である。鼻逃げ領域906は、ディスプレイ131から裁頭部12Rを通過した光束がユーザの右眼ELに導かれないことからユーザの鼻に近接する端部に向かって減光している領域である。本実施形態において、タイムスタンプ情報は、鼻逃げ領域906に対応する映像902の左下の領域904で示される画素位置に埋め込まれる。
このように、タイムスタンプ情報を埋め込んだことで画質が劣化しても、その領域をユーザにとって相対的に視認性が低い位置に配置することができる。
以上説明したように、本実施形態では、撮像映像を構成する画像においてタイムスタンプ情報が埋め込まれる領域は、その位置が、ディスプレイ131、132でユーザにとって相対的に視認性が低い鼻逃げ領域に対応するように選択および設定される。これによって、タイムスタンプ情報を埋め込んだことで画質が劣化した領域を、視認性が低くユーザが複合現実感を体験する上で視覚的に重要性の低い位置に配置することができる。従って、入力される撮像映像1、2の同期化によるCG描画位置の精度向上を図りながら、ユーザに対しては違和感なく複合現実感を提供することができる。
また、人間の眼にとって鈍感である色差信号にタイムスタンプ情報を埋め込んでいるので、画質の劣化の程度をより軽減することができる。
なお、本実施形態では、画像処理部11において、カメラ101、102の2つのカメラからの映像を更に2つに分岐している。しかし、HMDにカメラを4つ配置することで、このような分岐を行わないようにしてもよい。
[第2実施形態]
本発明の第2実施形態を図10、図11を参照して説明する。図10は、本発明の第2実施形態のHMDにおける表示部13の機能ブロック図である。図11は、第2実施形態においてプリズム体を通してユーザが見る、グラデーション処理された映像の説明図である。第2実施形態では、表示部13以外の構成は第1実施形態と同様であるため詳細な説明は省略する。第2実施形態においては、表示部13に、左右の視差画像をユーザが自然に観察できるようにするためのグラデーション処理部1001および1002が追加されている。
本実施形態は、ディスプレイ131、132により左右の眼に異なる画角の映像を表示させて、一部の画角のみ左右の眼で重なるように観察させることで、被写体を立体視できるようにしている。しかしながら、このような構成では単眼領域と両眼領域の境界部が目立ってしまい自然な観察ができないという現象が発生する。この現象は、左右の眼の視野闘争により、片眼には画像が表示されるが、もう片方の眼には画像が表示されずディスプレイのパネルの非表示部などの黒部が見えてしまうことで生じてしまう。そのため、本実施形態では、グラデーション処理部を設けて、表示される映像に対してグラデーション処理を実行することで黒部を目立たないようにする。
グラデーション処理部1001には、撮像映像1の各フレームの画像にCGが重畳された合成画像が画像合成部12から入力される。グラデーション処理部1001は、入力された合成画像に対してグラデーション処理を行う。
同様に、グラデーション処理部1002には、撮像映像2の各フレームの画像にCGが重畳された合成画像が画像合成部12から入力される。グラデーション処理部1002は、入力された合成画像に対してグラデーション処理を行う。
図11の映像901は、ディスプレイ131に表示され、ユーザの左眼がプリズム体を通して観察する映像である。映像902は、ディスプレイ132に表示され、ユーザの右眼がプリズム体を通して観察する映像である。このような映像901、902をユーザが観察すると、ユーザの頭の中で映像901、902が融合されて、一部領域で重複するように観察される。しかし、その際、映像901の左端の一部は左眼だけで観察される単眼領域、映像902の右端の一部は右眼だけで観察される単眼領域となり、重複して観察される重複領域との境界が目立ってしまうという問題がある。そこで、図11に示すように、境界部に接する位置にグラデーション領域1101、1102を設けて、この境界部の影響を軽減する。
グラデーション領域1101は、CGが重畳された撮像映像1に対してグラデーション処理部1001によりグラデーション処理が行われた領域である。
グラデーション処理部1001は、ユーザが両眼で立体視する際に重複領域と単眼領域との境界に接する内側の領域に相当する、左眼の映像901の右端部にグラデーション処理を行う。このグラデーション処理によって、映像901の内部から右端に向かってなだらかに映像の輝度が落とされる。
図11の映像902は、ディスプレイ132に表示され、ユーザの右眼がプリズム体を通して観察する映像である。グラデーション領域1103は、CGが描画された撮像映像2に対してグラデーション処理部1002によりグラデーション処理が行われた領域である。
グラデーション処理部1002は、ユーザが両眼で立体視する際に重複領域と単眼領域との境界に接する内側の領域に相当する、右眼の映像902の左端部にグラデーション処理を行う。このグラデーション処理によって、映像902の内部から左端に向かってなだらかに映像の輝度が落とされる。
第2実施形態において、グラデーション処理部1001、1002は、映像のグラデーション領域の水平位置に応じて0%から100%までゲイン値を線形に変化させ、そのゲイン値を映像の画素値にかけ合わせる。これにより、グラデーション領域1101および1103の画素値を得る。本実施形態においては、グラデーション処理部1001、1002はグラデーション領域の水平位置に応じて輝度値を変化させるが、これに限らず、垂直位置に対してもゲイン値を変化させ、ゲイン値を非線形に変化させてもよい。
また、本実施形態において、タイムスタンプ情報埋め込み部1118、1119で埋め込まれるタイムスタンプ情報は、グラデーション領域1101および1103内の位置に埋め込まれる。図10においては、撮像映像1に対するタイムスタンプ情報は、左眼の映像901の左端部の埋め込み領域1102の1以上の画素に埋め込まれる。同様に、撮像映像2に対するタイムスタンプ情報は、右眼の映像902の左端部の埋め込み領域1104の1以上の画素に埋め込まれる。これら埋め込み領域1102、1104は、表示部に表示される合成画像において輝度の減少した領域であり、ユーザにとって相対的に視認性の低い領域となっている。
以上説明したように、本実施形態では、撮像映像を構成する画像においてタイムスタンプ情報が埋め込まれる領域は、その位置が、ディスプレイ131、132でユーザにとって相対的に視認性が低いグラデーション領域に対応するように設定される。なお、本実施形態では、重複領域と単眼領域との境界に接する内側の領域にグラデーション領域を設定したが、境界の外側の領域にグラデーション領域を設定してもよいし、その両方に設定してもよい。すなわち、本実施形態は重複領域と単眼領域との境界に接する領域にグラデーション処理を実行する際に広く適用できるものである。
[第3実施形態]
本発明の第3実施形態を図12、図13に従って説明する。
図12は、第3実施形態のHMDにおける表示部13の機能ブロック図である。
第3実施形態では、表示部13以外の構成は第1実施形態と同様であるため詳細な説明は省略する。第3実施形態においては、光学歪みを生じる光学部材としてのプリズム体11Lおよび11Rの光学歪みを補正するための表示歪み補正部1201および1202が表示部13に設けられている。
表示歪み補正部1201には、撮像映像1の各フレームの画像にCGが重畳された合成画像が画像合成部12から入力される。表示歪み補正部1201は、合成画像に対して表示歪み補正処理を行う。
同様に、表示歪み補正部1202には、撮像映像2の各フレームの画像にCGが重畳された合成画像が画像合成部12から入力される。表示歪み補正部1202は、合成画像に対して表示歪み補正処理を行う。
図13(a)は、本実施形態における撮像映像1のフレーム画像にCGが重畳された合成画像の説明図、図13(b)は、プリズム体11Lを通じてユーザが見る映像の説明図である。プリズム体11Lを通過した映像には、光学的に糸巻型の歪みが生じる。説明のために、図13(a)では、格子状の複数の線分の合成映像1301が表示されている。このような合成映像1301をそのままディスプレイ131に表示したときにユーザがプリズム体11Lを通じて視認する映像を図13(b)に示す。図中の映像901の格子の歪みに示されるように、ユーザが視認する映像では、各辺の中央位置近傍が映像の中心に向かって拡大されて歪んだものとなる。
特に、図13(a)においてL1で示される、合成画像1301の下辺中央部で映像の下端からある程度離れた位置にある線分は、図13(b)においては、撮像映像1の下辺の中央部で映像の下端近傍にある上に凸の曲線として表示される。一方、図13(a)においてL2で示される、撮像映像1の下辺の中央部で映像の下端近傍にある線分は、ユーザには観察されない。このように、プリズム体11L、11Rにおいては、光学歪みによって表示領域内から外れる領域が生じる。
図14(a)は、本実施形態における合成映像1401における、タイムスタンプ埋め込み部1118によってタイムスタンプ情報の埋め込み領域1402の説明図である。図示されるように、埋め込み領域1402は、光学歪みによって表示領域内から外れる領域に配置され、具体的には、図13(a)におけるL2の近傍の位置に設定される。従って、プリズム体11Lを通じてユーザが見る映像には埋め込み領域1402は表示されない。
図14(b)は、表示歪み補正部1201によって表示歪み補正を行うときの歪み補正の詳細を表す説明図である。表示歪み補正部1201による歪み補正は、図13(b)に示されるように、プリズム体11Lによる歪みが補償するように樽型に画面を歪ませる。従って、表示歪み補正部1201による歪み補正では、図14(b)のように合成映像1403の中心部付近が周囲の辺に向かって拡大される。また、合成映像1403の各辺の中央部近傍は画面外に向かって凸になるように歪められる。その結果、埋め込み領域1402は、図14(b)においてはユーザに表示される領域外に移動されている。なお、表示歪み補正部1202による表示歪み補正についても同様である。
このように、本実施形態では、表示歪み補正部1201はプリズム体11Lの糸巻型の光学歪みを補償するように合成映像(合成画像)を歪ませ、結果として歪みのない映像をユーザに表示する。その結果、埋め込み領域1402は、ユーザには表示されなくなっている。なお、プリズム体11Rについても同様にして、タイムスタンプ情報が埋め込まれる領域の位置を設定する。表示光学系の光学歪み補正自体は公知の技術であるので、その詳細な説明は省く。
また、本実施形態において、プリズム体11L、11Rの歪みとして糸巻型の歪みを説明した。しかし、プリズム体11L、11Rの歪みはこれに限定されない。いずれの場合においても、表示歪み補正部1201は、プリズム体11L、11Rの光学的な歪みを補償するように画面を歪ませる。そして、タイムスタンプ情報が埋め込まれる領域の全体または少なくとも一部は、ユーザに表示される画像において表示領域外となる位置に設定される。
以上のように、第1〜第3実施形態では、撮像映像においてタイムスタンプ情報が埋め込まれる位置は、ユーザに表示される画像において特定の位置となるように任意に設定できる。この特定の位置は、ユーザに視認されないかまたは視認性が低い位置、あるいは、ユーザが複合現実感を体験する上で視覚的に重要性の低い位置とすることができる。従って、複数入力される撮像映像同士を同期化してCG描画位置の精度向上を図りながら、ユーザに対しては違和感なく複合現実感を提供できる。

Claims (19)

  1. 現実空間を第1の撮像手段で撮像した第1の画像データ、第2の画像データと、第2の撮像手段で撮像した第3の画像データ、第4の画像データと、を取得する取得手段と、
    前記取得した第1から第4の画像データそれぞれに対して、前記第1から第4の画像データ同士の同期をとるための情報を、各画像データを構成する画素のうち少なくとも1つの画素のデータに埋め込む埋め込み手段と、
    前記第1から第4の画像データそれぞれに埋め込まれた同期をとるための情報に基づいて、前記第1から第4の画像データ同士の同期をとる同期手段と、
    前記同期のとられた第1の画像データと第3の画像データとに基づいて前記第2の画像データおよび第4の画像データに重畳させるCGの位置を算出する算出手段と、
    前記算出された位置に基づいて、前記第2の画像データおよび第4の画像データにCGを重畳させて第1の合成画像データおよび第2の合成画像データを生成する生成手段と、前記生成された第1の合成画像データおよび第2の合成画像データを第1の表示部と第2の表示部に表示する表示手段と、を有し、
    前記埋め込み手段は、前記第1の合成画像データおよび第2の合成画像データが前記第1の表示部および第2の表示部に表示される際に相対的に視認性の低い領域に含まれる画素に対応する前記第1から第4の画像データ上の画素に前記同期を取るための情報を埋め込むことを特徴とする、
    画像表示システム。
  2. 前記第1から第4の画像データそれぞれについて、輝度信号と色差信号とを生成する色変換手段を更に有し、
    前記埋め込み手段は、前記第1から第4の画像データの前記少なくとも1つの画素について、前記色差信号のデータと前記同期を取るための情報とを置換することを特徴とする、
    請求項1に記載の画像表示システム。
  3. 前記埋め込み手段は、前記第1から第4の画像データそれぞれの複数の画素に、前記同期を取るための情報を埋め込むことを特徴とする、
    請求項1に記載の画像表示システム。
  4. 前記同期を取るための情報として、時刻に関する情報を生成する生成手段を更に有し、前記生成手段は、前記取得手段が前記第1から第4の画像データを取得したタイミングに係る時刻に関する情報を生成することを特徴とする、
    請求項1〜3のいずれかに記載の画像表示システム。
  5. 前記取得した第1から第4の画像データに対して画像処理を実行する画像処理手段を更に有し、
    前記画像処理手段は、前記画像処理の実行に伴う遅延に応じて、前記同期を取るための情報を遅延させる遅延処理を実行し、
    前記埋め込み手段は、前記遅延処理された同期を取るための情報を埋め込むことを特徴とする、
    請求項1〜4のいずれかに記載の画像表示システム。
  6. 前記表示手段は、ユーザの頭部に装着して使用される画像表示装置に設けられていることを特徴とする、
    請求項1〜5のいずれかに記載の画像表示システム。
  7. 前記第1の合成画像データおよび第2の合成画像データを前記第1の表示部および第2の表示部に表示するための光学系を更に有し、
    前記埋め込み手段は、前記相対的に視認性の低い領域として前記光学系の角部が切断された領域を通過して表示される領域に含まれる画素に対応する前記第1から第4の画像データ上の画素に前記同期を取るための情報を埋め込むことを特徴とする、
    請求項1〜6のいずれかに記載の画像表示システム。
  8. 前記光学系が切断された角部は、ユーザの鼻と干渉する部分であることを特徴とする、
    請求項7に記載の画像表示システム。
  9. 前記第1の合成画像データおよび第2の合成画像データにグラデーション処理を実行するグラデーション処理手段を更に有し、
    前記埋め込み手段は、前記相対的に視認性の低い領域として前記グラデーション処理が実行された領域に含まれる画素に対応する前記第1から第4の画像データ上の画素に前記同期を取るための情報を埋め込むことを特徴とする、
    請求項1〜5のいずれかに記載の画像表示システム。
  10. 前記表示手段は、前記グラデーション処理が実行された第1の合成画像データおよび第2の合成画像データの一部を互いに重複させて表示することを特徴とする、
    請求項9に記載の画像表示システム。
  11. 前記第1の合成画像データおよび第2の合成画像データを前記第1の表示部および第2の表示部に表示する際の光学歪みを補正する補正手段を更に有し、
    前記埋め込み手段は、前記相対的に視認性の低い領域として前記光学歪みの補正によって表示領域に含まれなくなる領域に含まれる画素に対応する前記第1から第4の画像データ上の画素に前記同期を取るための情報を埋め込むことを特徴とする、
    請求項1〜5のいずれかに記載の画像表示システム。
  12. 前記第1の撮像手段はユーザの左眼に対応した撮像手段であり、前記第2の撮像手段はユーザの右眼に対応した撮像手段であることを特徴とする、
    請求項1〜11のいずれかに記載の画像表示システム。
  13. 前記第1の撮像手段および前記第2の撮像手段は、前記表示手段が備えられている画像表示装置に設けられていることを特徴とする、
    請求項12に記載の画像表示システム。
  14. 前記埋め込み手段は、前記少なくとも1つの画素のデータの最下位ビットのデータと、前記同期をとるための情報とを、置換することを特徴とする、
    請求項1に記載の画像表示システム。
  15. 前記同期手段は、前記第1から第4の画像データそれぞれに埋め込まれた同期をとるための情報を、前記第1から第4の画像データから分離する分離手段を有することを特徴とする、
    請求項1に記載の画像表示システム。
  16. 現実空間を第1の撮像手段で撮像した第1の画像データ、第2の画像データと、第2の撮像手段で撮像した第3の画像データ、第4の画像データと、を取得する取得手段と、
    前記取得した第1から第4の画像データそれぞれに対して、前記第1から第4の画像データ同士の同期をとるための情報を、各画像データを構成する画素のうち少なくとも1つの画素のデータに埋め込む埋め込み手段と、
    前記同期をとるための情報が埋め込まれた第1から第4の画像データを画像処理装置に送信する送信手段と、
    前記画像処理装置について、前記第1から第4の画像データそれぞれに埋め込まれた同期をとるための情報に基づいて、生成された第1の合成画像データおよび第2の合成画像データを受信する受信手段と、
    前記受信された第1の合成画像データおよび第2の合成画像データを第1の表示部と第2の表示部に表示する表示手段と、を有し、
    前記埋め込み手段は、前記第1の合成画像データおよび第2の合成画像データが前記第1の表示部および第2の表示部に表示される際に相対的に視認性の低い領域に含まれる画素に対応する前記第1から第4の画像データ上の画素に前記同期を取るための情報を埋め込むことを特徴とする、
    画像表示装置。
  17. 前記埋め込み手段は、前記第1から第4の画像データそれぞれの複数の画素に、前記同期を取るための情報を埋め込むことを特徴とする、
    請求項16に記載の画像表示装置。
  18. 前記同期を取るための情報として、時刻に関する情報を生成する生成手段を更に有し、前記生成手段は、前記取得手段が前記第1から第4の画像データを取得したタイミングに係る時刻に関する情報を生成することを特徴とする、
    請求項16または17に記載の画像表示装置。
  19. 現実空間を第1の撮像手段で撮像した第1の画像データ、第2の画像データと、第2の撮像手段で撮像した第3の画像データ、第4の画像データと、を取得するステップと、
    前記取得した第1から第4の画像データそれぞれに対して、前記第1から第4の画像データ同士の同期をとるための情報を、各画像データを構成する画素のうち少なくとも1つの画素のデータに埋め込むステップと、
    前記第1から第4の画像データそれぞれに埋め込まれた同期をとるための情報に基づいて、前記第1から第4の画像データ同士の同期をとるステップと、
    前記同期のとられた第1の画像データと第3の画像データとに基づいて前記第2の画像データおよび第4の画像データに重畳させるCGの位置を算出するステップと、
    前記算出された位置に基づいて、前記第2の画像データおよび第4の画像データにCGを重畳させて第1の合成画像データおよび第2の合成画像データを生成するステップと、前記生成された第1の合成画像データおよび第2の合成画像データを第1の表示部と第2の表示部に表示するステップと、を有し、
    前記埋め込むステップでは、前記第1の合成画像データおよび第2の合成画像データが前記第1の表示部および第2の表示部に表示される際に相対的に視認性の低い領域に含まれる画素に対応する前記第1から第4の画像データ上の画素に前記同期を取るための情報を埋め込むことを特徴とする、
    画像表示方法。
JP2017091011A 2017-05-01 2017-05-01 画像表示システム、画像表示装置および画像表示方法 Active JP6855313B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017091011A JP6855313B2 (ja) 2017-05-01 2017-05-01 画像表示システム、画像表示装置および画像表示方法
US15/958,532 US10728531B2 (en) 2017-05-01 2018-04-20 Image display system, image display apparatus, image display method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017091011A JP6855313B2 (ja) 2017-05-01 2017-05-01 画像表示システム、画像表示装置および画像表示方法

Publications (3)

Publication Number Publication Date
JP2018191098A JP2018191098A (ja) 2018-11-29
JP2018191098A5 JP2018191098A5 (ja) 2020-06-18
JP6855313B2 true JP6855313B2 (ja) 2021-04-07

Family

ID=63916962

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017091011A Active JP6855313B2 (ja) 2017-05-01 2017-05-01 画像表示システム、画像表示装置および画像表示方法

Country Status (2)

Country Link
US (1) US10728531B2 (ja)
JP (1) JP6855313B2 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180131856A (ko) * 2017-06-01 2018-12-11 에스케이플래닛 주식회사 배송 물품 정보 제공 방법 및 이를 위한 장치
US10785495B1 (en) * 2017-09-25 2020-09-22 Amazon Technologies, Inc. Encoding timecode in video using colored regions of pixels
US20200184737A1 (en) * 2018-12-05 2020-06-11 Xerox Corporation Environment blended packaging
WO2020131277A1 (en) 2018-12-20 2020-06-25 Snap Inc. Flexible eyewear device with dual cameras for generating stereoscopic images
CN109873921B (zh) * 2019-02-14 2023-04-07 魔门塔(苏州)科技有限公司 一种图像时间戳的传输方法、解析方法和装置
US10854175B2 (en) * 2019-03-14 2020-12-01 Microsoft Technology Licensing, Llc Monitoring support element strain to determine real-time positional relationships between positionally sensitive device components
JP2021039444A (ja) * 2019-08-30 2021-03-11 キヤノン株式会社 画像処理装置及びその制御方法及びプログラム
US10965931B1 (en) * 2019-12-06 2021-03-30 Snap Inc. Sensor misalignment compensation

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008167348A (ja) 2007-01-04 2008-07-17 Toyota Motor Corp 画像処理装置
JP5047090B2 (ja) * 2008-07-31 2012-10-10 キヤノン株式会社 システム
JP2014199508A (ja) * 2013-03-29 2014-10-23 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP5769751B2 (ja) * 2013-03-29 2015-08-26 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム

Also Published As

Publication number Publication date
JP2018191098A (ja) 2018-11-29
US10728531B2 (en) 2020-07-28
US20180316910A1 (en) 2018-11-01

Similar Documents

Publication Publication Date Title
JP6855313B2 (ja) 画像表示システム、画像表示装置および画像表示方法
US10748338B2 (en) Image processing apparatus and image processing method
KR101770110B1 (ko) 반투명 마크, 반투명 마크 합성 및 검출 방법, 투명 마크 그리고 투명 마크 합성 및 검출 방법
JP6747504B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP5522404B2 (ja) 画像処理方法、画像処理装置及びプログラム
US10547832B2 (en) Image processing apparatus, method, and storage medium for executing gradation on stereoscopic images
JP2008146109A (ja) 画像処理方法、画像処理装置
US7940295B2 (en) Image display apparatus and control method thereof
US11956415B2 (en) Head mounted display apparatus
EP3136724B1 (en) Wearable display apparatus, information processing apparatus, and control method therefor
CN111034190A (zh) 信息处理设备、信息处理方法和程序
JP6887824B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP7058946B2 (ja) 情報処理装置、情報処理システム、情報処理方法及びプログラム
JP2014199508A (ja) 画像処理装置、画像処理方法及びプログラム
CN106291932A (zh) 一种虚拟现实头盔
CN110709920B (zh) 图像处理设备及其控制方法
JP7528951B2 (ja) 表示端末装置
JP2023174066A (ja) 画像処理装置、画像処理方法、およびプログラム
JP2021086287A (ja) 情報処理システム、情報処理装置、及び情報処理方法
JP2011223215A (ja) 映像信号処理装置、表示装置、表示方法及びプログラム
CN117111731A (zh) 信息处理设备和方法、头戴式显示设备和计算机可读介质
WO2012073823A1 (ja) 画像処理装置、画像処理方法、およびプログラム
CN105468250A (zh) 一种信息处理方法及便携式电子设备

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200423

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200423

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210216

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210317

R151 Written notification of patent or utility model registration

Ref document number: 6855313

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151