JP2008306602A - 画像表示システム、及びその制御方法 - Google Patents

画像表示システム、及びその制御方法 Download PDF

Info

Publication number
JP2008306602A
JP2008306602A JP2007153389A JP2007153389A JP2008306602A JP 2008306602 A JP2008306602 A JP 2008306602A JP 2007153389 A JP2007153389 A JP 2007153389A JP 2007153389 A JP2007153389 A JP 2007153389A JP 2008306602 A JP2008306602 A JP 2008306602A
Authority
JP
Japan
Prior art keywords
image
frame
composite image
interest
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007153389A
Other languages
English (en)
Other versions
JP4912224B2 (ja
JP2008306602A5 (ja
Inventor
Yoshiki Kajita
佳樹 梶田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2007153389A priority Critical patent/JP4912224B2/ja
Publication of JP2008306602A publication Critical patent/JP2008306602A/ja
Publication of JP2008306602A5 publication Critical patent/JP2008306602A5/ja
Application granted granted Critical
Publication of JP4912224B2 publication Critical patent/JP4912224B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

【課題】 ユーザの左右の目に対して動画像を提供する場合に、フレームにエラーが発生しても、係るフレームの修正を、簡便なシステム構成で容易に行うための技術を提供すること。
【解決手段】 注目フレームの合成画像のデータにエラーが発生している場合、位置参照値α、姿勢参照値βを求める(S206)。α、β共に閾値よりも小さい場合には、注目フレームにおける合成画像を注目フレームの直前のフレームにおける合成画像を用いて修正した合成画像を表示する(S208,S209,S213)。α、βの何れかが閾値以上であれば、注目フレームにおける合成画像を他方の目に対する注目フレームにおける合成画像を用いて修正した合成画像を表示する(S211〜S213)。
【選択図】 図2

Description

本発明は、画像の表示技術に関するものである。
現実世界と仮想世界をリアルタイムかつシームレスに融合させる技術として複合現実感、いわゆるMR(Mixed Reality)技術が知られている。頭部装着型表示装置を利用したMRシステムでは、次のようにして装着者にMR空間を提示する。
即ち、頭部装着型表示装置に実装した撮像ユニットによって取得された、若しくは外部より入力された現実空間画像にCG画像を合成し、頭部装着型表示装置の表示ユニットで合成画像を表示することで、装着者にMR空間を提示する。合成画像を左目用画像、右目用画像として別系統で生成し、それぞれ左目用表示ユニット、右目用表示ユニットに表示することにより、装着者にステレオ動画像を提供することが可能である。
従来から、ステレオ動画像データの伝送中にエラーが生じた際、エラーが発生している側の画像データの一部または全体を、エラーの発生している側の1つ前の画像データの一部または全体で置き換えて補間を行う方法が提案されている。また、ステレオ動画像データの伝送中にエラーが生じた際、エラーが発生している側の画像データの一部または全体を、エラーの発生していない側の画像データの一部または全体で置き換えて補間を行う方法も提案されている。
図10A〜図10Cを用いて、スレテオ動画像データの伝送中にエラーが生じた場合における、従来の対処方法について説明する(特許文献1)。
図10Aは、L3のフレームにエラーが生じた場合について説明する図である。
図10AにおいてR1,R2,R3,R4…は右目用の動画像を構成する各フレーム1401Rを表し、L1,L2,L3,L4…は左目用の動画像を構成する各フレーム1401Lを表している。ここで、それぞれのストリーム1401R、1401Lの伝送中に、1402で示す如く、L3のフレームの伝送にエラーが生じたとする。この場合、それぞれのフレームの画像を再生しても、左目に対して表示する動画像には画像の乱れやコマ落ちが発生し、ユーザにとって違和感のあるステレオ動画像が再生されてしまう。
図10Bは、L3のフレームを、対応する右側のフレームR3(画像1403)に置き換える処理を説明する図である。図10Cは、L3のフレームをその直前のフレームL2(画像1404)に置き換える処理を説明する図である。係る処理により、画像の乱れを抑え、コマ落ちを解消することができる。
特登録03332575号(図2、段落0048)
しかしながら上述した従来技術には以下のような問題があった。
ステレオカメラによる立体動画像を表示するシステムにおいて、図10Cに示すように、エラー画像のフレームを前フレームL2に置き換える方法では、フレーム間で画像の内容に大きな差があると(カメラが大きく動いてしまうと)、使用者に違和感を与える。
また図10Bに示す如く、エラー画像のフレームを、反対側の目に対するストリーム中の対応するフレームで置き換える方法では、次のような問題がある。即ち、フレーム間で画像の内容にあまり差がない場合、即ち、動きが小さい場合、それぞれの目に対して対応するストリームを再生すると、ステレオ感を損失することになる。
本発明は以上の問題に鑑みてなされたものであり、ユーザの左右の目に対して動画像を提供する場合に、フレームにエラーが発生しても、係るフレームの修正を、簡便なシステム構成で容易に行うための技術を提供することを目的とする。
本発明の目的を達成するために、例えば、本発明の画像表示システムは以下の構成を備える。
即ち、観察者の一方の目に対する現実空間画像を撮像し、撮像した現実空間画像を提示する為の画像提示部と、他方の目に対する現実空間画像を撮像し、撮像した現実空間画像を提示する為の画像提示部と、を有する画像表示システムであって、
それぞれの前記画像提示部は、
各フレームの現実空間画像を入力する入力手段と、
前記現実空間画像を撮像したときの位置姿勢を取得する取得手段と、
前記取得手段が取得した位置姿勢に基づいて仮想空間画像を生成し、前記入力手段が入力した現実空間画像と合成することで、合成画像を生成する生成手段と、
前記生成手段が生成した合成画像を送出する送出手段と、
前記送出された合成画像を受信する受信手段と、
前記受信手段が受信した注目フレームの合成画像のデータにエラーが発生しているか否かを判断する判断手段と、
前記注目フレームの合成画像のデータにエラーが発生していないと前記判断手段が判断した場合には、前記注目フレームの合成画像を表示し、
前記注目フレームの合成画像のデータにエラーが発生していると前記判断手段が判断した場合には、前記注目フレームの動き量に対応する参照値を求め、前記注目フレームにおける合成画像を前記注目フレームの直前のフレームにおける合成画像を用いて修正した合成画像、前記注目フレームにおける合成画像を他方の画像提示部が有する前記生成手段が生成した注目フレームにおける合成画像を用いて修正した合成画像、のうち、前記参照値と予め設定された閾値との大小比較結果に応じて決まる一方を表示する表示手段と
を備えることを特徴とする。
本発明の目的を達成するために、例えば、本発明の画像表示システムの制御方法は以下の構成を備える。
即ち、観察者の一方の目に対する現実空間画像を撮像し、撮像した現実空間画像を提示する為の画像提示部と、他方の目に対する現実空間画像を撮像し、撮像した現実空間画像を提示する為の画像提示部と、を有する画像表示システムの制御方法であって、
それぞれの前記画像提示部は、
各フレームの現実空間画像を入力する入力工程と、
前記現実空間画像を撮像したときの位置姿勢を取得する取得工程と、
前記取得工程で取得した位置姿勢に基づいて仮想空間画像を生成し、前記入力工程で入力した現実空間画像と合成することで、合成画像を生成する生成工程と、
前記生成工程で生成した合成画像を送出する送出工程と、
前記送出された合成画像を受信する受信工程と、
前記受信工程で受信した注目フレームの合成画像のデータにエラーが発生しているか否かを判断する判断工程と、
前記注目フレームの合成画像のデータにエラーが発生していないと前記判断工程で判断した場合には、前記注目フレームの合成画像を表示し、
前記注目フレームの合成画像のデータにエラーが発生していると前記判断工程で判断した場合には、前記注目フレームの動き量に対応する参照値を求め、前記注目フレームにおける合成画像を前記注目フレームの直前のフレームにおける合成画像を用いて修正した合成画像、前記注目フレームにおける合成画像を他方の画像提示部が有する前記生成工程で生成した注目フレームにおける合成画像を用いて修正した合成画像、のうち、前記参照値と予め設定された閾値との大小比較結果に応じて決まる一方を表示する表示工程と
を備えることを特徴とする。
本発明の構成によれば、ユーザの左右の目に対して動画像を提供する場合に、フレームにエラーが発生しても、係るフレームの修正を、簡便なシステム構成で容易に行うことができる。
以下、添付図面を参照し、本発明の好適な実施形態について詳細に説明する。
[第1の実施形態]
図1は、本実施形態に係る画像表示システムの機能構成例を示すブロック図である。図1に示す如く、本実施形態に係るシステムは、画像出力部101、画像処理部102、画像表示部103により構成されている。尚、画像出力部101と画像表示部103により、頭部装着型表示装置は構成される。以下、各部について詳細に説明する。
なお、以下の説明において、参照番号にRが付いているものは、頭部装着型表示装置を頭部に装着した観察者(以下、単に観察者と呼称する)の右目に対して画像を提示するための画像提示部を構成する構成要素を示す。同様に、参照番号にLが付いているものは、頭部装着型表示装置を頭部に装着した観察者の左目に対して画像を提示するための画像提示部を構成する構成要素を示す。従って、R、Lを除いた参照番号が同じものは同じ動作を行うものとする。従って以下の説明において、一方側の目に対して画像を提示するための構成についての説明は、他方側の目に対して画像を提示する為の構成についても同様に当てはめることができる。
先ず、画像出力部101について説明する。
画像出力部101は、右目画像出力部104R、左目画像出力部104Lにより構成されている。
左目画像出力部104Lは、観察者の左目に対して提示する現実空間画像(左目用の現実空間画像)をフレーム毎に取得し、順次、画像処理部102に送出する。
右目画像出力部104Rは、観察者の右目に対して提示する現実空間画像(右目用現実空間画像)をフレーム毎に取得し、順次、画像処理部102に送出する。
なお、左目画像出力部104L、右目画像出力部104Rがどこから現実空間画像を取得するのかについては特に限定するものではない。例えば、画像出力部101を接続したネットワークに接続されているサーバ装置や、CD−ROMなどの記録媒体から情報を読み取る装置、ハードディスク装置、或いは撮像デバイスなどから取得する。
なお、本実施形態では、左目画像出力部104L、右目画像出力部104Rはそれぞれ別個に画像を出力している。しかし、左目画像出力部104Lから出力される現実空間画像と、右目画像出力部104Rから出力される現実空間画像と、を1つのストリーム内に含めて画像処理部102に送出するようにしても良い。
次に、画像処理部102について説明する。画像処理部102は、位置情報生成部105、位置情報管理部106、画像合成部107、により構成されている。
位置情報生成部105は、左目画像出力部104Lから左目用の現実空間画像を取得すると、係る現実空間画像を用いて、観察者の左目の位置姿勢情報を求める。係る位置姿勢情報を求める処理については後述する。そして求めた位置姿勢情報を後段の位置情報管理部106に送出する。また、位置情報生成部105は、右目画像出力部104Rから右目用の現実空間画像を取得すると、係る現実空間画像を用いて、観察者の右目の位置姿勢情報を求める。係る位置姿勢情報を求める処理については後述する。そして求めた位置姿勢情報を後段の位置情報管理部106に送出する。なお、上述のように、左目用の現実空間画像と右目用の現実空間画像とが1つのストリームに含められて画像出力部101から送出された場合には、位置情報生成部105は、係るストリームを、左目用の現実空間画像、右目用の現実空間画像に分割する。そして係る分割の後はそれぞれの現実空間画像を用いて、観察者の右目の位置姿勢情報、左目の位置姿勢情報を求める。
位置情報管理部106は、位置情報生成部105から送出された観察者の左目の位置姿勢情報、右目の位置姿勢情報をセットにして、複数フレーム分保持する。
画像合成部107は、位置情報管理部106に管理されている最新の右目の位置姿勢情報を取得し、係る位置姿勢情報が示す位置姿勢を有する視点から見える仮想空間の画像(仮想空間画像)を生成する。そして生成した仮想空間画像を、位置情報生成部105、位置情報管理部106を介して受取った(受信した)右目画像出力部104Rからの現実空間画像の上に合成することで、右目用の合成画像を生成する。そして生成した右目用の合成画像を画像表示部103に送出する。また、画像合成部107は、位置情報管理部106に管理されている最新の左目の位置姿勢情報を取得し、係る位置姿勢情報が示す位置姿勢を有する視点から見える仮想空間の画像(仮想空間画像)を生成する。そして生成した仮想空間画像を、位置情報生成部105、位置情報管理部106を介して受取った左目画像出力部104Lからの現実空間画像の上に合成することで、左目用の合成画像を生成する。そして生成した左目用の合成画像を画像表示部103に送出する。なお、右目用の合成画像、左目用の合成画像をそれぞれ別個に送出するのではなく、1つのストリームに含めて送出するようにしても良い。
次に、画像表示部103について説明する。画像表示部103は、エラー検出部108L、108R、補間処理部109L、109R、表示部110L、110Rにより構成されている。以下の説明では、注目フレームの右目用の合成画像、注目フレームの左目用の合成画像が画像表示部103に入力された場合における、画像表示部103の動作について説明する。従って、画像表示部103は、以下説明する動作を、画像処理部102から入力されるフレーム毎に行うことになる。また、上述のように、左目用の合成画像と右目用の合成画像とが1つのストリームに含められて画像処理部102から送出された場合には、画像表示部103には、次のような構成を設ける必要がある。即ち、係るストリームを、左目用の合成画像、右目用の合成画像に分割し、それぞれをエラー検出部108L、108Rに転送する為の構成を設ける必要がある。なお、画像表示部103は、過去数フレーム分の右目用の合成画像、左目用の画合成画像を、それぞれ補間処理部109R、109Lが読み出すことができるように不図示のメモリに保持しているものとする。
エラー検出部108Lは、画像合成部107から送出された左目用の合成画像を受取ると、係る合成画像のデータにエラーが生じている(発生している)か否かをチェック(判断)する。係るチェックでは、合成画像のデータにエラーが生じることで、合成画像中にノイズなどが付加されているのか否かをチェックする。係るチェックには、パリティチェック、チェックサム、Cyclic Redundancy Check(CRC)等の一般的なエラーチェック手法を用いればよい。そしてそのチェック結果は、後段の補間処理部109Lに送出する。
エラー検出部108Rは、画像合成部107から送出された右目用の合成画像を受取ると、エラー検出部108Lと同様の動作を行い、係る合成画像のデータにエラーが生じているか否かをチェックする。そしてそのチェック結果は、後段の補間処理部109Rに送出する。
補間処理部109Lは、エラー検出部108Lによるチェック結果が「エラー無し」を示すものである場合には、エラー検出部108Lに入力された左目用の合成画像をそのまま後段の表示部110Lに送出する。一方、エラー検出部108Lによるチェック結果が「エラー有り」を示すものである場合には、補間処理部109Lは次のような処理を行う。即ち、位置情報管理部106にアクセスし、注目フレームの左目用の合成画像を生成するために用いた位置姿勢情報と、注目フレームの直前のフレームの左目用の合成画像を生成するために用いた位置姿勢情報との差分(絶対値付き差分)を、参照値として求める。より詳しくは、位置成分同士の差分、姿勢成分同士の差分を、それぞれ参照値として求める。以下では、位置成分同士の差分を位置参照値、姿勢成分同士の差分を姿勢参照値、と呼称する。そして位置参照値、姿勢参照値の何れも閾値よりも小さければ、補間処理部109Lは、注目フレームの直前のフレームの左目用の合成画像を不図示のメモリから取得する。そして、取得した合成画像を、注目フレームの左目用の合成画像の代わりに表示部110Lに送出する。一方、位置参照値、姿勢参照値の何れかが閾値以上であれば、補間処理部109Lは、注目フレームの右目用の合成画像を補間処理部109Rから取得し、取得した合成画像を後段の表示部110Lに送出する。即ち、位置参照値と閾値との大小比較結果、姿勢参照値と閾値との大小比較結果、に応じて、表示部110Lに送出する合成画像を切り替える制御を行う。
表示部110Lは、補間処理部109Lから送出された画像を表示するものである。ここで、表示部110Lは、頭部装着型表示装置を頭部に装着した観察者の眼前(左目前)に位置するように頭部装着型表示装置に取り付けられたものであるので、観察者の眼前には、補間処理部109Lから送出された画像が表示されることになる。
補間処理部109Rは、エラー検出部108Rによるチェック結果が「エラー無し」を示すものである場合には、エラー検出部108Rに入力された右目用の合成画像をそのまま後段の表示部110Rに送出する。一方、エラー検出部108Rによるチェック結果が「エラー有り」を示すものである場合には、補間処理部109Rは次のような処理を行う。即ち、位置情報管理部106にアクセスし、注目フレームの右目用の合成画像を生成するために用いた位置姿勢情報と、注目フレームの直前のフレームの右目用の合成画像を生成するために用いた位置姿勢情報との差分を、参照値として求める。即ち、位置参照値、姿勢参照値、を求める。そして位置参照値、姿勢参照値の何れも閾値よりも小さければ、補間処理部109Rは、注目フレームの直前のフレームの右目用の合成画像を不図示のメモリから取得する。そして、取得した合成画像を、注目フレームの右目用の合成画像の代わりに表示部110Rに送出する。一方、位置参照値、姿勢参照値の何れかが閾値以上であれば、補間処理部109Rは、注目フレームの左目用の合成画像を補間処理部109Lから取得し、取得した合成画像を後段の表示部110Rに送出する。
表示部110Rは、補間処理部109Rから送出された画像を表示するものである。ここで、表示部110Rは、頭部装着型表示装置を頭部に装着した観察者の眼前(右目前)に位置するように頭部装着型表示装置に取り付けられたものであるので、観察者の眼前には、補間処理部109Rから送出された画像が表示されることになる。
図2は、本システムが行う処理のフローチャートである。なお、図2に示したフローチャートに従った処理は、1フレーム分の合成画像を表示させるための処理であり、実際には、係る処理を繰り返し行う。これにより、複数フレームの合成画像を表示させることができる。なお、以下では説明上、注目フレーム(2フレーム目以降)の合成画像を表示部110Lに表示させる場合について説明するが、注目フレームの合成画像を表示部110Rに表示させる場合であっても、同様の処理を行えば良い。
ステップS201では、位置情報生成部105は、左目画像出力部104Lから送出された左目用の現実空間画像を取得する。
ステップS202では、位置情報生成部105は、係る現実空間画像を用いて、観察者の左目の位置姿勢情報を求める。そして求めた位置姿勢情報を後段の位置情報管理部106に送出する。位置情報管理部106は、位置情報生成部105から送出された観察者の左目の位置姿勢情報を保持する。
ステップS203では、画像合成部107は、位置情報管理部106に管理されている最新の左目の位置姿勢情報を取得し、係る位置姿勢情報が示す位置姿勢を有する視点から見える仮想空間の画像(仮想空間画像)を生成する。そして生成した仮想空間画像を、位置情報生成部105、位置情報管理部106を介して受取った左目画像出力部104Lからの現実空間画像の上に合成することで、左目用の合成画像を生成する。そして生成した左目用の合成画像を画像表示部103に送出する。
ステップS204では、エラー検出部108Lは、画像合成部107から送出された左目用の合成画像を受取ると、係る合成画像のデータにエラーが生じているか否かをチェックする。そしてそのチェック結果を、後段の補間処理部109Lに送出する。エラー検出部108Lによるチェック結果が「エラー無し」を示すものである場合には、処理はステップS213に進む。
ステップS213では、補間処理部109Lは、エラー検出部108Lに入力された左目用の合成画像をそのまま後段の表示部110Lに送出する。これにより、表示部110Lには、係る合成画像が表示される。
一方、エラー検出部108Lによるチェック結果が「エラー有り」を示すものである場合には、処理はステップS204からステップS205に進む。
ステップS205では、補間処理部109Lは次のような処理を行う。先ず、位置情報管理部106にアクセスし、注目フレームの左目用の合成画像を生成するために用いた位置姿勢情報と、注目フレームの直前のフレームの左目用の合成画像を生成するために用いた位置姿勢情報とを取得する。
次にステップS206では、補間処理部109Lは、注目フレームの左目用の合成画像を生成するために用いた位置情報と、注目フレームの直前のフレームの左目用の合成画像を生成するために用いた位置情報との差分を位置参照値αとして求める。また、補間処理部109Lは、注目フレームの左目用の合成画像を生成するために用いた姿勢情報と、注目フレームの直前のフレームの左目用の合成画像を生成するために用いた姿勢情報との差分を姿勢参照値βとして求める。
そして、位置参照値α、姿勢参照値βの何れも閾値よりも小さければ、処理はステップS207を介してステップS208に進む。
ステップS208では、補間処理部109Lは、注目フレームの直前のフレームの左目用の合成画像を不図示のメモリから取得する。
そしてステップS209では、ステップS208で取得した合成画像を、注目フレームにおける左目用の合成画像として設定する。
そしてステップS213では、ステップS208で取得した合成画像を後段の表示部110Lに送出する。これにより、表示部110Lには、係る合成画像が表示されることになる。
一方、位置参照値α、姿勢参照値βの何れかが閾値以上であれば、処理はステップS207からステップS211に進む。
ステップS211では、補間処理部109Lは、注目フレームの右目用の合成画像を補間処理部109Rから取得する。
そしてステップS212では、補間処理部109Lは、ステップS211で取得した合成画像を、注目フレームにおける左目用の合成画像として設定する。
そしてステップS213では、ステップS211で取得した合成画像を後段の表示部110Lに送出する。これにより、表示部110Lには、係る合成画像が表示されることになる。
ここで、上記位置情報生成部105が、現実空間画像から、観察者の目の位置姿勢情報を生成するための処理について説明する。係る処理は、右目の位置姿勢情報を生成する場合であっても、左目の位置姿勢情報を生成する場合であっても処理としては同じである。
図3は、現実空間画像の一例を示す図である。図3において303はマーカで、様々な情報がコード化された2次元バーコードが記されており、その周囲には枠が記されている。係るマーカ303は、図3では現実物体であるテーブル302の上に配されている。そして301は、左目画像出力部104L又は右目画像出力部104Rから出力される現実空間の画像を示す。
現実空間画像が位置情報生成部105に入力されると、位置情報生成部105は先ず、現実空間画像301中におけるマーカ303を検出する。そして検出したマーカ303に記されている2次元バーコードを解析し、係る2次元バーコードの識別情報を認識する。位置情報生成部105内には、識別情報に対応するマーカの3次元座標位置が予め記憶されているので、係る処理によって識別情報が認識されると、対応する3次元座標位置が特定できる。そして、現実空間画像301上のマーカ303の座標位置と係る3次元座標位置とを用いて、写真測量などの分野で周知の技術を適用すれば、観察者の目の位置姿勢情報を生成することができる。なお、マーカ303は複数個用いても良い。また、マーカ303の代わりに、例えば、画像中のエッジ304を用いても良い。また、マーカ303として用いることができるものは、2次元バーコードが記されたものに限定するものではなく、例えば、カラーマーカや、LED等の発光素子のような方向性のないマーカを複数用いても良い。このようにマーカ303の代わりに用いることができるものについては様々なものが考え得る。また、これら列挙したものを適宜組み合わせて用いても良い。なお、位置情報生成部105が行う上記処理については周知の技術であるので、これ以上の説明は省略する。
図5は、注目フレームの合成画像として1フレーム前の合成画像を表示する処理を説明する図である。図5において501Lは、画像合成部107から順次出力される左目用の合成画像であり、502が注目フレームにおける左目用の合成画像である。合成画像502は、エラーを含む。上述の通り、位置参照値α、姿勢参照値βの何れも閾値よりも小さい場合には、合成画像502の代わりに、1フレーム前の合成画像503を表示する。なお、図5に示した係る処理は、右目用の合成画像についても同様である。
このような方法は、フレーム間で画像の内容に大きな動きがない場合、即ち、位置参照値α、姿勢参照値βが共に小さい場合には効果的である。このような場合には、観察者の右目に対して提示する合成画像と左目に対して提示する合成画像との間のズレは小さくなり、ステレオ感が損なわれることもないため、観察者に対して違和感のない合成画像を提供することができる。
図6は、注目フレームの合成画像として、他方の目に対する注目フレームの合成画像を表示する処理を説明する図である。図6において601Lは、画像合成部107内から順次出力される左目用の合成画像であり、601Rは、画像合成部107内から順次出力される右目用の合成画像である。そして602は、エラーを含む、注目フレームにおける左目用の合成画像であり、603は、注目フレームにおける右目用の合成画像であり、この右目用の合成画像にエラーが含まれない。上述の通り、位置参照値α、姿勢参照値βの何れかが閾値以上である場合には、合成画像602の代わりに、合成画像603を表示する。なお、図6に示した係る処理は、右目用の合成画像についても同様である。
<変形例1>
上記説明では、一方の目に対する注目フレームの合成画像にエラーがある場合には、この合成画像の代わりに他の合成画像を表示することで、エラーを有する合成画像の表示を避けていた。しかし、エラーを有する合成画像においてエラーの箇所以外はそのまま表示し、係るエラーの箇所についてはこれを表示せず、他の合成画像において対応する箇所を表示するようにしても良い。
図7Aは、第1の実施形態で説明したように、エラーを有する合成画像の代わりに他の合成画像を表示する(画像全体の置き換えを行う)ことで、エラーを有する合成画像の表示を避ける処理を説明する図である。図7Aにおいて702はエラーを有する合成画像であり、701は、合成画像702の代わりに表示する合成画像である。
図7Bは、エラーを有する合成画像においてエラーの箇所以外はそのまま表示し、係るエラーの箇所についてはこれを表示せず、他の合成画像において対応する箇所を表示する処理を説明する図である。図7Bにおいて705はエラーを有する合成画像であり、706a、706bがエラーの箇所である。係る箇所706a、706bは、エラー検出部108L、108Rが行うエラー検出処理によって特定されるものである。また、704は、合成画像705が一方の目に対するものである場合には、他方の目に対する合成画像である。合成画像705を表示する場合、エラーの箇所706a、706b以外についてはそのまま表示し、エラーの箇所706a、706bの代わりに、合成画像704においてそれぞれの箇所706a、706bに対応する箇所704a、704bを表示する。
なお、図7A、図7Bのそれぞれに示した方法は、例えば次のようにして選択的に用いればよい。エラーを有する合成画像の面積(全画素数)に対する、エラー箇所の面積(エラーの箇所を構成する画素の数)の割合を求める。そして求めた割合が閾値以上であれば図7Aに示した方法で得られる合成画像を表示し、閾値よりも小さければ図7Bに示した方法で得られる合成画像を表示する。
<変形例2>
第1の実施形態では、頭部装着型表示装置の動き量に相当する参照値として、位置参照値α、姿勢参照値βを用いた。しかし、参照値として用いることができるものはこれに限定するものではなく、例えば、次のようなものも考えられる。
注目フレームにおける合成画像にエラーが検出された場合、注目フレームよりも1つ前のフレームにおける合成画像と、注目フレームにおける合成画像とで、画像内の動き量(オプティカルフロー)を求め、これを参照値として用いる。
図4は、オプティカルフローを説明する図である。
オプティカルフローとは、動画像における見かけの速度であり、オプティカルフローの代表的な計算方法としては、マッチング法やグラディエント法といった方法がある。ここでは、注目フレームにおける合成画像にエラーが検出された場合、注目フレームよりも1つ前のフレームにおける合成画像と、注目フレームにおける合成画像と、のオプティカルフローを求める。図4においてそれぞれの矢印がオプティカルフローである。図4において403は注目フレームよりも1つ前のフレームにおけるテーブルの画像であり、402は注目フレームにおけるテーブルの画像である。従って画像402と画像403との位置の差がオプティカルフローとなっている。401は、現実空間画像である。
従ってこのようにして求めたオプティカルフローを参照値として用いる場合、図2のフローチャートに従った処理は次のようになる。ステップS201からステップS204までは第1の実施形態と同じである。ステップS205では、注目フレームにおける合成画像、注目フレームよりも1つ前における合成画像を取得し、ステップS206では、それぞれの合成画像を用いてオプティカルフローを参照値として求める。そして、係るオプティカルフローのサイズが閾値以上であれば処理をステップS207を介してステップS211に進める。一方、オプティカルフローが閾値よりも小さければ処理をステップS207を介してステップS208に進める。以降は第1の実施形態と同じである。なお、同様のことは以下説明する実施形態にも適宜適用できる。
<変形例3>
一方の目に対する注目フレームの合成画像にエラーがあり、且つ位置参照値α、姿勢参照値βの何れかが閾値以上である場合には、一方の目に対する注目フレームの合成画像の代わりに、他方の目に対する注目フレームの合成画像を表示していた。しかし、一方の目に対する注目フレームの合成画像にエラーがあり、且つ位置参照値α、姿勢参照値βの何れかが閾値以上である場合に行う処理としては図8,9に示す以下のようなものも考えられる。
図8は、エラーの箇所をその周囲の画素群を用いて修正する処理を説明する図である。図8において領域802内にエラーの箇所が存在しているものとする。803はエラーの箇所としての画素であり、係る画素803を修正するためにその近傍の8画素804を用いる。係る修正では、例えば、8画素804のそれぞれの画素値の平均値を求め、係る平均値を画素803の画素値として設定する。係る処理の負担の軽減を目的に、垂直方向、水平方向のいずれかの隣接した2画素の画素値の平均値を画素803の画素値として設定しても良い。
図8では、エラーの箇所としての画素が一つの場合を示しているが、複数の隣接した画素がまとまってエラーの箇所を形成している場合にも同様の処理を行えばよい。即ち、エラーの箇所に隣接する画素群の画素値の平均値を求める。そして、「エラーの箇所を形成する画素」と「エラーの箇所に隣接する非エラー箇所を構成する画素」との最短距離に応じて平均値に重み付けしたものを「エラーの箇所を形成する画素」の画素値として設定する。
このように、エラーの箇所を構成する画素の画素値を修正する方法には様々な手法があり、何れかに限定するものではない。
図9は、エラーのラインを、その直上のラインを用いて修正する処理を説明する図である。図9の上部において901はエラーのラインを含む合成画像であり、902がエラーのラインである。903はエラーのライン902の直上のラインである。この場合、ライン903をライン902にコピーすることで、図9の下部に示す如く、ライン902があったライン位置にライン903をコピーした合成画像904を生成する。ライン905は、ライン902の位置にライン903をコピーしたものである。
なお、コピー元としては直上のラインに限定するものではなく、直下のラインでも良い。また、直上のラインと直下のラインとで対応する画素位置の画素値を平均化することで新たに生成されるラインを、エラーのラインに上書きしても良い。
以上説明した図8,9の処理の何れかを、一方の目に対する注目フレームの合成画像にエラーがあり、且つ位置参照値α、姿勢参照値βの何れかが閾値以上である場合に行うようにしても良い。これにより、左右の合成画像間のズレがなくなり、それぞれの画像を観察者の対応する目に提示しても、観察者はステレオ感を失うこともない。
また、上記説明では、一方の目に対する注目フレームの合成画像にエラーがあれば、2通りの方法の何れかによって得られる合成画像を観察者に提示していた。しかし、参照値の大きさに応じて複数の方法を対応付けておき、求めた参照値に対応する方法でもって、観察者の目に対して提示する合成画像を得るようにしても良い。
[第2の実施形態]
注目フレームにおける画像中にエラーが生じていても、注目フレームから過去数フレームに渡って画像内の変化が激しい場合には、係る注目フレームを観察者に提供しても、観察者は係るエラーは認識し難い。例えば、高速に移動しているカメラが撮像した各フレームの画像を観察者に提供する場合には、係る注目フレームを観察者に提供しても、観察者は係るエラーは認識し難い。
本実施形態では、注目フレームの合成画像内にエラーが生じていても、注目フレームの直前の合成画像と、注目フレームの合成画像と、の間で求まる位置参照値α、姿勢参照値βの何れかが閾値以上であれば、注目フレームの合成画像をそのまま表示する。
なお、本実施形態に係るシステムについては第1の実施形態と同様である。
図11は、本実施形態に係るシステムが行う処理のフローチャートである。なお、図11に示したフローチャートに従った処理は、1フレーム分の合成画像を表示させるための処理であり、実際には、係る処理を繰り返し行う。これにより、複数フレームの合成画像を表示させることができる。なお、以下では説明上、注目フレーム(2フレーム目以降)の合成画像を表示部110Lに表示させる場合について説明するが、注目フレームの合成画像を表示部110Rに表示させる場合であっても、同様の処理を行えば良い。
図11に示したフローチャートは、図2に示したフローチャートから、ステップS211,S212を削除したものとなっている。
ステップS206で求めた位置参照値α、姿勢参照値βの何れかが閾値以上であれば、処理はステップS207からステップS213に進む。
ステップS213では、補間処理部109Lは、エラー検出部108Lに入力された左目用の合成画像をそのまま後段の表示部110Lに送出する。これにより、表示部110Lには、係る合成画像が表示される。
以上説明した処理は、第1の実施形態と比べると簡易化されており、観察者に合成画像を提供するための処理をより高速に行うことができる。
[第3の実施形態]
本実施形態では、左目用の現実空間画像、右目用の現実空間画像を、撮像動作により取得すると共に、右目の位置姿勢情報、左目の位置姿勢情報の算出に、位置姿勢センサを用いる。
図12は、本実施形態に係るシステムの機能構成例を示すブロック図である。図12において、図1に示したものと同じものについては同じ参照番号を付けており、その説明は省略する。図12に示す如く、本実施形態に係るシステムは、画像撮像部1201、画像処理部1202、画像表示部103、センサ(位置姿勢センサ)1211により構成されている。尚、画像出力部101と画像表示部103により、頭部装着型表示装置は構成される。以下、各部について詳細に説明する。
なお、以下の説明において、参照番号にRが付いているものは、頭部装着型表示装置1200を頭部に装着した観察者(以下、単に観察者と呼称する)の右目に対して画像を提示するための画像提示部を構成する構成要素を示す。同様に、参照番号にLが付いているものは、頭部装着型表示装置1200を頭部に装着した観察者の左目に対して画像を提示するための画像提示部を構成する構成要素を示す。従って、R、Lを除いた参照番号が同じものは同じ動作を行うものとする。従って以下の説明において、一方側の目に対して画像を提示するための構成についての説明は、他方側の目に対して画像を提示する為の構成についても当てはめることができる。
先ず、画像撮像部1201について説明する。
画像撮像部1201は、左目画像撮像部1204L、右目画像撮像部1204R、により構成されている。左目画像撮像部1204Lは、頭部装着型表示装置1200を頭部に装着した観察者の左目の近傍位置に取り付けられるものである。同様に、右目画像撮像部1204Rは、頭部装着型表示装置1200を頭部に装着した観察者の右目の近傍位置に取り付けられるものである。
左目画像撮像部1204Lは、観察者の左目に対して提示する現実空間画像(左目用の現実空間画像)をフレーム毎に撮像し、順次、画像処理部1202に送出する。
右目画像撮像部1204Rは、観察者の右目に対して提示する現実空間画像(右目用現実空間画像)をフレーム毎に撮像し、順次、画像処理部1202に送出する。
なお、本実施形態では、左目画像撮像部1204L、右目画像撮像部1204Rはそれぞれ別個に画像を出力している。しかし、左目画像撮像部1204Lが撮像した現実空間画像と、右目画像撮像部1204Rが撮像した現実空間画像と、を1つのストリーム内に含めて画像処理部1202に送出するようにしても良い。
次に、センサ1211について説明する。センサ1211は、頭部装着型表示装置1200に対して装着されるものであり、自身の位置姿勢を計測し、その結果を位置姿勢情報として画像処理部1202に送出するものである。センサ1211には、例えば、磁気センサやジャイロセンサ、光学式センサなどを用いることができる。なお、センサ1211を用いて自身の位置姿勢を求めるための技術については周知であるので、センサ1211による位置姿勢情報の取得方法については、説明を省略する。
次に、画像処理部1202について説明する。画像処理部1202は、位置情報生成部1205、位置情報管理部1206、画像合成部1207、により構成されている。
位置情報生成部1205は、左目画像撮像部1204Lから左目用の現実空間画像を取得すると、係る現実空間画像と、センサ1211から受けた位置姿勢情報と、を用いて、観察者の左目の位置姿勢情報を求める。本実施形態では、図3を用いて説明したように画像を用いた位置姿勢の計算に加え、センサ1211による情報をも用いてより正確に位置姿勢情報を求める。画像情報に加えてセンサ情報をも用いて視点の位置姿勢を求めるための技術については周知であるので、これについての説明は省略する。そして求めた位置姿勢情報を後段の位置情報管理部1206に送出する。また、位置情報生成部1205は、右目画像撮像部1204Rから右目用の現実空間画像を取得すると、係る現実空間画像と、センサ1211から受けた位置姿勢情報と、を用いて、観察者の右目の位置姿勢情報を求める。そして求めた位置姿勢情報を後段の位置情報管理部1206に送出する。なお、上述のように、左目用の現実空間画像と右目用の現実空間画像とが1つのストリームに含められて画像撮像部1201から送出された場合には、位置情報生成部1205は、係るストリームを、左目用の現実空間画像、右目用の現実空間画像に分割する。そして係る分割の後はそれぞれの現実空間画像、及びセンサ1211による位置姿勢情報、を用いて、観察者の右目の位置姿勢情報、左目の位置姿勢情報を求める。
位置情報管理部1206は、位置情報生成部1205から送出された観察者の左目の位置姿勢情報、右目の位置姿勢情報をセットにして、複数フレーム分保持する。
画像合成部1207は、位置情報管理部1206に管理されている最新の右目の位置姿勢情報を取得し、係る位置姿勢情報が示す位置姿勢を有する視点から見える仮想空間の画像(仮想空間画像)を生成する。そして生成した仮想空間画像を、位置情報生成部1205、位置情報管理部1206を介して受取った右目画像撮像部1204Rからの現実空間画像の上に合成することで、右目用の合成画像を生成する。そして生成した右目用の合成画像を画像表示部103に送出する。また、画像合成部1207は、位置情報管理部1206に管理されている最新の左目の位置姿勢情報を取得し、係る位置姿勢情報が示す位置姿勢を有する視点から見える仮想空間の画像(仮想空間画像)を生成する。そして生成した仮想空間画像を、位置情報生成部1205、位置情報管理部1206を介して受取った左目画像撮像部1204Lからの現実空間画像の上に合成することで、左目用の合成画像を生成する。そして生成した左目用の合成画像を画像表示部103に送出する。なお、右目用の合成画像、左目用の合成画像をそれぞれ別個に送出するのではなく、1つのストリームに含めて送出するようにしても良い。
そして画像表示部103は第1の実施形態で説明したように動作する。
図13は、本システムが行う処理のフローチャートである。なお、図13において、図2と同じ部分については同じステップ番号を付けており、その説明は省略する。図13に示したフローチャートに従った処理は、1フレーム分の合成画像を表示させるための処理であり、実際には、係る処理を繰り返し行う。これにより、複数フレームの合成画像を表示させることができる。なお、以下では説明上、注目フレーム(2フレーム目以降)の合成画像を表示部110Lに表示させる場合について説明するが、注目フレームの合成画像を表示部110Rに表示させる場合であっても、同様の処理を行えば良い。
ステップS1301では、センサ1211は、自身の位置姿勢を計測し、その結果を位置姿勢情報として画像処理部1202に送出する。
ステップS1302では、位置情報生成部1205は、左目画像撮像部1204Lから左目用の現実空間画像を取得すると、係る現実空間画像と、センサ1211から受けた位置姿勢情報と、を用いて、観察者の左目の位置姿勢情報を求める。
なお、位置情報生成部1205は、次のようにして位置姿勢情報を生成しても良い。即ち、左目画像撮像部1204L、右目画像撮像部1204Rからの現実空間画像はそのまま画像合成部1207に送出する。そして、センサ1211から位置姿勢情報を受けると、係る位置姿勢情報に、予め測定されたセンサ1211と左目画像撮像部1204Lとの位置姿勢関係を加えることで、左目画像撮像部1204Lの位置姿勢情報(観察者の左目の位置姿勢情報)を得る。そして得たこの位置姿勢情報を後段の位置情報管理部106に送出する。同様に、センサ1211から位置姿勢情報を受けると、係る位置姿勢情報に、予め測定されたセンサ1211と右目画像撮像部1204Rとの位置姿勢関係を加えることで、右目画像撮像部1204Rの位置姿勢情報(観察者の右目の位置姿勢情報)を得る。そして得たこの位置姿勢情報を後段の位置情報管理部106に送出する。
[その他の実施形態]
また、本発明の目的は、以下のようにすることによって達成されることはいうまでもない。即ち、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給する。係る記憶媒体は言うまでもなく、コンピュータ読み取り可能な記憶媒体である。そして、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行する。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。
また、コンピュータが読み出したプログラムコードを実行することにより、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行う。その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
さらに、記録媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれたとする。その後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
本発明を上記記録媒体に適用する場合、その記録媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。
本発明の第1の実施形態に係るシステムの機能構成例を示すブロック図である。 頭部装着型表示装置が行う処理のフローチャートである。 現実空間画像の一例を示す図である。 オプティカルフローを説明する図である。 注目フレームの合成画像として1フレーム前の合成画像を表示する処理を説明する図である。 注目フレームの合成画像として、他方の目に対する注目フレームの合成画像を表示する処理を説明する図である。 第1の実施形態で説明したように、エラーを有する合成画像の代わりに他の合成画像を表示する(置き換え)ことで、エラーを有する合成画像の表示を避ける処理を説明する図である。 エラーを有する合成画像においてエラーの箇所以外はそのまま表示し、係るエラーの箇所についてはこれを表示せず、他の合成画像において対応する箇所を表示する処理を説明する図である。 エラーの箇所をその周囲の画素群を用いて修正する処理を説明する図である。 エラーのラインを、その直上のラインを用いて修正する処理を説明する図である。 L3のフレームにエラーが生じた場合について説明する図である。 L3のフレームを、対応する右側のフレームR3(画像1403)に置き換える処理を説明する図である。 L3のフレームをその直前のフレームL2(画像1404)に置き換える処理を説明する図である。 本発明の第2の実施形態に係る頭部装着型表示装置が行う処理のフローチャートである。 本発明の第3の実施形態に係るシステムの機能構成例を示すブロック図である。 頭部装着型表示装置が行う処理のフローチャートである。

Claims (9)

  1. 観察者の一方の目に対する現実空間画像を撮像し、撮像した現実空間画像を提示する為の画像提示部と、他方の目に対する現実空間画像を撮像し、撮像した現実空間画像を提示する為の画像提示部と、を有する画像表示システムであって、
    それぞれの前記画像提示部は、
    各フレームの現実空間画像を入力する入力手段と、
    前記現実空間画像を撮像したときの位置姿勢を取得する取得手段と、
    前記取得手段が取得した位置姿勢に基づいて仮想空間画像を生成し、前記入力手段が入力した現実空間画像と合成することで、合成画像を生成する生成手段と、
    前記生成手段が生成した合成画像を送出する送出手段と、
    前記送出された合成画像を受信する受信手段と、
    前記受信手段が受信した注目フレームの合成画像のデータにエラーが発生しているか否かを判断する判断手段と、
    前記注目フレームの合成画像のデータにエラーが発生していないと前記判断手段が判断した場合には、前記注目フレームの合成画像を表示し、
    前記注目フレームの合成画像のデータにエラーが発生していると前記判断手段が判断した場合には、前記注目フレームの動き量に対応する参照値を求め、前記注目フレームにおける合成画像を前記注目フレームの直前のフレームにおける合成画像を用いて修正した合成画像、前記注目フレームにおける合成画像を他方の画像提示部が有する前記生成手段が生成した注目フレームにおける合成画像を用いて修正した合成画像、のうち、前記参照値と予め設定された閾値との大小比較結果に応じて決まる一方を表示する表示手段と
    を備えることを特徴とする画像表示システム。
  2. 前記表示手段は、
    前記参照値が前記閾値よりも小さい場合には、前記注目フレームにおける合成画像を、前記注目フレームの直前のフレームにおける合成画像を用いて修正した合成画像を表示し、
    前記参照値が前記閾値以上である場合には、前記注目フレームにおける合成画像を、他方の画像提示部が有する前記生成手段が生成した注目フレームにおける合成画像を用いて修正した合成画像を表示する
    ことを特徴とする請求項1に記載の画像表示システム。
  3. 前記表示手段は、
    前記参照値が前記閾値よりも小さい場合には、前記注目フレームにおける合成画像を、前記注目フレームの直前のフレームにおける合成画像を用いて修正した合成画像を表示し、
    前記参照値が前記閾値以上である場合には、前記注目フレームにおける合成画像を表示する
    ことを特徴とする請求項1に記載の画像表示システム。
  4. 前記修正は、画像全体の置き換え、若しくは前記判断手段がエラー箇所として判断した箇所についての画像の置き換え、の何れかによって行われることを特徴とする請求項1乃至3の何れか1項に記載の画像表示システム。
  5. 前記表示手段は、前記注目フレームについて前記取得手段が取得した位置姿勢と、当該注目フレームの直前のフレームについて前記取得手段が取得した位置姿勢と、の差分に基づいて、前記参照値を求めることを特徴とする請求項1に記載の画像表示システム。
  6. 前記表示手段は、前記注目フレームにおける合成画像と、当該注目フレームの直前のフレームにおける合成画像と、のオプティカルフローを前記参照値として求めることを特徴とする請求項1に記載の画像表示システム。
  7. 前記取得手段は、前記入力手段が入力した画像を用いて、前記位置姿勢を求めることを特徴とする請求項1乃至6の何れか1項に記載の画像表示システム。
  8. それぞれの前記画像提示部は、頭部装着型表示装置に取り付けれており、
    前記取得手段は、前記頭部装着型表示装置に取り付けられた位置姿勢センサが計測した結果に基づいて、前記頭部装着型表示装置の位置姿勢を求めることを特徴とする請求項1乃至6の何れか1項に記載の画像表示システム。
  9. 観察者の一方の目に対する現実空間画像を撮像し、撮像した現実空間画像を提示する為の画像提示部と、他方の目に対する現実空間画像を撮像し、撮像した現実空間画像を提示する為の画像提示部と、を有する画像表示システムの制御方法であって、
    それぞれの前記画像提示部は、
    各フレームの現実空間画像を入力する入力工程と、
    前記現実空間画像を撮像したときの位置姿勢を取得する取得工程と、
    前記取得工程で取得した位置姿勢に基づいて仮想空間画像を生成し、前記入力工程で入力した現実空間画像と合成することで、合成画像を生成する生成工程と、
    前記生成工程で生成した合成画像を送出する送出工程と、
    前記送出された合成画像を受信する受信工程と、
    前記受信工程で受信した注目フレームの合成画像のデータにエラーが発生しているか否かを判断する判断工程と、
    前記注目フレームの合成画像のデータにエラーが発生していないと前記判断工程で判断した場合には、前記注目フレームの合成画像を表示し、
    前記注目フレームの合成画像のデータにエラーが発生していると前記判断工程で判断した場合には、前記注目フレームの動き量に対応する参照値を求め、前記注目フレームにおける合成画像を前記注目フレームの直前のフレームにおける合成画像を用いて修正した合成画像、前記注目フレームにおける合成画像を他方の画像提示部が有する前記生成工程で生成した注目フレームにおける合成画像を用いて修正した合成画像、のうち、前記参照値と予め設定された閾値との大小比較結果に応じて決まる一方を表示する表示工程と
    を備えることを特徴とする画像表示システムの制御方法。
JP2007153389A 2007-06-08 2007-06-08 画像表示システム、及びその制御方法 Expired - Fee Related JP4912224B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007153389A JP4912224B2 (ja) 2007-06-08 2007-06-08 画像表示システム、及びその制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007153389A JP4912224B2 (ja) 2007-06-08 2007-06-08 画像表示システム、及びその制御方法

Publications (3)

Publication Number Publication Date
JP2008306602A true JP2008306602A (ja) 2008-12-18
JP2008306602A5 JP2008306602A5 (ja) 2010-07-22
JP4912224B2 JP4912224B2 (ja) 2012-04-11

Family

ID=40234892

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007153389A Expired - Fee Related JP4912224B2 (ja) 2007-06-08 2007-06-08 画像表示システム、及びその制御方法

Country Status (1)

Country Link
JP (1) JP4912224B2 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011004203A (ja) * 2009-06-19 2011-01-06 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
WO2011036843A1 (ja) * 2009-09-28 2011-03-31 パナソニック株式会社 三次元画像処理装置およびその制御方法
WO2011058690A1 (ja) * 2009-11-11 2011-05-19 パナソニック株式会社 三次元映像復号装置及び三次元映像復号方法
JP2011139336A (ja) * 2009-12-28 2011-07-14 Toshiba Corp 画質調整装置および画質調整方法
JP2011193497A (ja) * 2011-04-22 2011-09-29 Panasonic Corp 三次元映像処理装置及び三次元映像処理方法
WO2011162168A1 (ja) * 2010-06-24 2011-12-29 ソニー株式会社 情報処理装置および情報処理方法
JP2012119844A (ja) * 2010-11-30 2012-06-21 Mitsubishi Electric Corp エラーコンシールメント装置
US8704876B2 (en) 2009-11-10 2014-04-22 Panasonic Corporation 3D video processor and 3D video processing method
JP2016025531A (ja) * 2014-07-22 2016-02-08 キヤノン株式会社 表示装置、制御方法、及びプログラム
JP2018087849A (ja) * 2016-11-28 2018-06-07 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07322302A (ja) * 1994-05-23 1995-12-08 Sanyo Electric Co Ltd 立体動画像再生装置
JP2003319419A (ja) * 2002-04-25 2003-11-07 Sharp Corp データ復号装置
JP2006254308A (ja) * 2005-03-14 2006-09-21 Matsushita Electric Ind Co Ltd 映像記録装置及び映像記録方法
JP2007034628A (ja) * 2005-07-26 2007-02-08 Canon Inc 画像処理方法及び装置
JP2007097129A (ja) * 2005-08-29 2007-04-12 Canon Inc ステレオ表示装置及びその制御方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07322302A (ja) * 1994-05-23 1995-12-08 Sanyo Electric Co Ltd 立体動画像再生装置
JP2003319419A (ja) * 2002-04-25 2003-11-07 Sharp Corp データ復号装置
JP2006254308A (ja) * 2005-03-14 2006-09-21 Matsushita Electric Ind Co Ltd 映像記録装置及び映像記録方法
JP2007034628A (ja) * 2005-07-26 2007-02-08 Canon Inc 画像処理方法及び装置
JP2007097129A (ja) * 2005-08-29 2007-04-12 Canon Inc ステレオ表示装置及びその制御方法

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8451321B2 (en) 2009-06-19 2013-05-28 Sony Corporation Image processing apparatus, image processing method, and program
JP2011004203A (ja) * 2009-06-19 2011-01-06 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
WO2011036843A1 (ja) * 2009-09-28 2011-03-31 パナソニック株式会社 三次元画像処理装置およびその制御方法
JP2011071928A (ja) * 2009-09-28 2011-04-07 Panasonic Corp 三次元画像処理装置およびその制御方法
US8836758B2 (en) 2009-09-28 2014-09-16 Panasonic Corporation Three-dimensional image processing apparatus and method of controlling the same
US8704876B2 (en) 2009-11-10 2014-04-22 Panasonic Corporation 3D video processor and 3D video processing method
JP2011103589A (ja) * 2009-11-11 2011-05-26 Panasonic Corp 三次元映像復号装置及び三次元映像復号方法
US8577208B2 (en) 2009-11-11 2013-11-05 Panasonic Corporation 3D video decoding apparatus and 3D video decoding method
WO2011058690A1 (ja) * 2009-11-11 2011-05-19 パナソニック株式会社 三次元映像復号装置及び三次元映像復号方法
US8964859B2 (en) 2009-11-11 2015-02-24 Panasonic Corporation 3D video decoding apparatus and 3D video decoding method
JP2011139336A (ja) * 2009-12-28 2011-07-14 Toshiba Corp 画質調整装置および画質調整方法
WO2011162168A1 (ja) * 2010-06-24 2011-12-29 ソニー株式会社 情報処理装置および情報処理方法
JP2012119844A (ja) * 2010-11-30 2012-06-21 Mitsubishi Electric Corp エラーコンシールメント装置
JP2011193497A (ja) * 2011-04-22 2011-09-29 Panasonic Corp 三次元映像処理装置及び三次元映像処理方法
JP2016025531A (ja) * 2014-07-22 2016-02-08 キヤノン株式会社 表示装置、制御方法、及びプログラム
US9805691B2 (en) 2014-07-22 2017-10-31 Canon Kabushiki Kaisha Display, control method, and storage medium
JP2018087849A (ja) * 2016-11-28 2018-06-07 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム

Also Published As

Publication number Publication date
JP4912224B2 (ja) 2012-04-11

Similar Documents

Publication Publication Date Title
JP4912224B2 (ja) 画像表示システム、及びその制御方法
US11380068B2 (en) Technique for recording augmented reality data
JP5113426B2 (ja) 頭部装着型表示装置、及びその制御方法
US9014414B2 (en) Information processing apparatus and information processing method for processing image information at an arbitrary viewpoint in a physical space or virtual space
CN106413829B (zh) 图像编码和显示
US10257492B2 (en) Image encoding and display
US10054796B2 (en) Display
US9699438B2 (en) 3D graphic insertion for live action stereoscopic video
RU2019131371A (ru) Система устройства просмотра смешанной реальности и способ для него
JP2010072477A (ja) 画像表示装置、画像表示方法及びプログラム
JP2018142164A (ja) 画像処理装置、画像生成方法及びプログラム
JP6949475B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP6515512B2 (ja) 表示装置、表示装置のキャリブレーション方法、およびキャリブレーションプログラム
JP4366165B2 (ja) 画像表示装置及び方法並びに記憶媒体
JP2015201734A (ja) 画像処理装置、画像処理装置の制御方法およびプログラム
KR20140115637A (ko) 다수 사용자에 입체 영상을 제공하는 시스템 및 그 방법
KR101773929B1 (ko) 광 시야각 영상 처리 시스템, 광 시야각 영상의 전송 및 재생 방법, 및 이를 위한 컴퓨터 프로그램
JP5539486B2 (ja) 情報処理装置及び情報処理方法
JP2005165974A (ja) 画像処理方法、画像処理装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100608

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100608

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110708

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110715

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110907

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110930

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111219

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120117

R151 Written notification of patent or utility model registration

Ref document number: 4912224

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150127

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees