JP2008277920A - システム - Google Patents

システム Download PDF

Info

Publication number
JP2008277920A
JP2008277920A JP2007116113A JP2007116113A JP2008277920A JP 2008277920 A JP2008277920 A JP 2008277920A JP 2007116113 A JP2007116113 A JP 2007116113A JP 2007116113 A JP2007116113 A JP 2007116113A JP 2008277920 A JP2008277920 A JP 2008277920A
Authority
JP
Japan
Prior art keywords
image
camera
orientation
image processing
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007116113A
Other languages
English (en)
Other versions
JP2008277920A5 (ja
JP4689639B2 (ja
Inventor
Sonoko Maeda
その子 前田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2007116113A priority Critical patent/JP4689639B2/ja
Priority to US12/058,892 priority patent/US8049775B2/en
Priority to CN2008100892573A priority patent/CN101295206B/zh
Publication of JP2008277920A publication Critical patent/JP2008277920A/ja
Publication of JP2008277920A5 publication Critical patent/JP2008277920A5/ja
Application granted granted Critical
Publication of JP4689639B2 publication Critical patent/JP4689639B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/373Image reproducers using viewer tracking for tracking forward-backward translational head movements, i.e. longitudinal movements

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)

Abstract

【課題】右目用カメラと左目用カメラと画像処理装置の接続関係をより簡便に得、仮想空間と現実空間との合成画像をユーザに提供する。
【解決手段】識別情報取得部317(318)にて、右カメラ101R(左カメラ101L)より取得した識別情報を制御部303(312)に送出する。制御部303(312)は識別情報取得部317(318)から受けた識別情報に基づいて接続状態を判断する。位置姿勢情報送信部305は、右カメラ101Rの位置姿勢情報を画像処理装置206に送信する。画像出力部308は、位置姿勢情報に基づいて生成された仮想空間画像と現実画像入力部302が入力した撮像画像とを合成した合成画像を出力する。画像出力部316は、位置姿勢算出部313により求められたの位置姿勢に基づいて生成される仮想空間画像と、現実画像入力部311が入力した撮像画像とを合成した合成画像を出力する。
【選択図】図3

Description

本発明は、立体視の為の技術に関するものである。
VR(バーチャルリアリティ)システムは、コンピュータにより作り出された三次元CG(Computer Graphic)映像をユーザに提示することにより、仮想空間をあたかも現実空間であるかのように、ユーザに感じさせるシステムである。
また近年では、現実空間の映像に三次元CGを合成することにより、現実空間にはない情報をユーザに提示する技術が開発されており、このような技術は、MR(Mixed Reality:複合現実感)システムと呼ばれている。このMRシステムは、現実空間と切り離された状況のみにおいて体験することが可能であった仮想空間と、現実空間との共存を目的とし、仮想空間を増強する技術として注目されている。
仮想空間と現実空間とを共存させるためのシステム(VR/MRシステム)を実現する代表的な装置として、ヘッドマウントディスプレイ(HMD)がある。VR/MRシステムにおいては、HMDに仮想空間や現実空間を表示することにより、HMDを装着したユーザに対して仮想空間および複合現実空間を提示することができる(特許文献1参照)。
図1は、ユーザがステレオビデオシースルーHMD100(以下、単にHMD100と呼称する)を装着した状態を模式的に示す図である。HMD100は、眼鏡又はゴーグルに似た外観形状を有し、その内部には、例えばLCDで構成されている右目用表示デバイス102Rと、左眼用表示デバイス102Lが配置されている。以下、右目用表示デバイス102Rは右表示装置102R、左眼用表示デバイス102Lは左表示装置102Lと呼称する。また、ステレオビデオ映像をHMD100に装着したビデオカメラにより取得する場合には、例えばユーザ(装着者)の視点位置の近傍位置に右目用ステレオビデオカメラ101R、左目用ステレオビデオカメラ101Lが設けられる。以下、右目用ステレオビデオカメラ101Rは右カメラ101R、左目用ステレオビデオカメラ101Lは左カメラ101Lと呼称する。
立体視を実現する(ステレオ画像をユーザに提示する)為には、右目用画像及び左目用画像といった視差のある1対の画像を生成し、各画像を右目用表示デバイス及び左目用表示デバイスに表示させる必要がある。視差のある画像を生成するためには、右目と左目の視差、つまり一方のカメラから見た他方のカメラの位置姿勢を求める必要がある。これを求める方法として、複数のテスト画像を右目用カメラ及び左目用カメラで撮影を行い、取得した撮影画像からそれぞれのカメラの位置姿勢関係を求めるといったことが知られている。
特開2002−159019号公報
従来は、一台の画像処理装置を用いて右目用画像と左目用画像を生成したいた。しかし、画像生成の速度の向上等のため、右目用画像と左目用画像をそれぞれ別の画像処理装置で生成することが考えられている。この様な構成において、右目用カメラと左目用カメラの位置姿勢を求めるために、それぞれのカメラに接続される画像処理装置の接続関係は予めユーザが定めておく必要がある。しかし、実際にそれぞれの画像処理装置を接続する際に、ユーザが接続関係を誤ってしまった場合、右目用カメラ、左目用カメラのそれぞれの位置姿勢を、接続されたそれぞれの画像処理装置は正しく求めることはできないことになる。
本発明は以上の問題に鑑みて成されたものであり、右目用カメラと左目用カメラとそれぞれに接続される画像処理装置の接続関係をより簡便に得、得た接続関係を用いて仮想空間と現実空間との合成画像をユーザに提供する為の技術を提供することを目的とする。
本発明の目的を達成するために、例えば、本発明のシステムは以下の構成を備える。
即ち、頭部装着型表示装置が有する第一のカメラが撮像する現実空間の画像を受信する第一の画像処理装置と、当該頭部装着型表示装置が有する第二のカメラが撮像する現実空間の画像を受信する第二の画像処理装置と、を備えるシステムであって、
前記第一の画像処理装置は、
前記第一のカメラがマスタであるか否かを判断する判断手段と、
前記判断手段の判断の結果、マスタである場合は前記第一のカメラの位置姿勢情報を取得し、マスタでない場合は前記第二の画像処理装置から前記第二のカメラの位置姿勢情報とを取得する手段と、
前記判断手段の判断の結果、マスタである場合、前記第一のカメラの位置姿勢情報を前記第二の画像処理装置に対して出力する手段と、
前記判断手段の判断の結果、マスタでない場合、前記第一のカメラと前記第二のカメラとの位置姿勢関係を示す位置姿勢関係情報を取得する手段と、
前記判断手段の判断の結果、マスタでない場合、前記第二のカメラの位置姿勢情報と前記位置姿勢関係情報に基づいて前記第一のカメラの位置姿勢情報を求める手段と、
前記第一の位置姿勢情報に基づいて仮想空間画像を生成する手段と、
前記第一のカメラが撮像した現実空間の画像を取得する手段と、
前記現実空間の画像と前記仮想空間画像とを合成した第一の合成画像を生成する手段と、
前記第一の合成画像を前記頭部装着型表示装置に対して出力する手段とを備え、
前記第二の画像処理装置は、
前記第二のカメラがマスタであるか否かを判断する判断手段と、
前記判断手段の判断の結果、マスタである場合は前記第二のカメラの位置姿勢情報を取得し、マスタでない場合は前記第一の画像処理装置から前記第一のカメラの位置姿勢情報を取得する手段と、
前記判断手段の判断の結果、マスタである場合、前記第二のカメラの位置姿勢情報を前記第一の画像処理装置に対して出力する手段と、
前記判断手段の判断の結果、マスタでない場合、前記第一のカメラと前記第二のカメラとの位置姿勢関係を示す位置姿勢関係情報を取得する手段と、
前記判断手段の判断の結果、マスタでない場合、前記第一のカメラの位置姿勢情報と前記位置姿勢関係情報とに基づいて前記第二のカメラの位置姿勢情報を求める手段と、
前記第二のカメラの位置姿勢情報に基づいて仮想空間画像を生成する手段と、
前記第二のカメラが撮像した現実空間の画像を取得する手段と、
前記第二のカメラが撮像した現実空間の画像と、前記第二のカメラの位置姿勢情報に基づいて生成した仮想空間画像と、を合成した第二の合成画像を生成する手段と、
前記第二の合成画像を前記頭部装着型表示装置に対して出力する手段と
を備えることを特徴とする。
本発明の構成によれば、右目用カメラと左目用カメラと、それぞれに接続される画像処理装置の接続関係をより簡便に得、そして得た接続関係を用いて、仮想空間と現実空間との合成画像をユーザに提供することができる。
以下、添付図面を参照し、本発明の好適な実施形態について詳細に説明する。
[第1の実施形態]
図2は、本実施形態に係るシステムの機能構成を示すブロック図である。図2に示す如く、本実施形態に係るシステムは、頭部装着型表示装置としてのHMD100、画像処理装置205,206で構成されている。画像処理装置205は、HMD100が有する後述の右目用のユニットに、ユーザがケーブルを接続することにより接続されている。また、画像処理装置206は、HMD100が有する後述の左目用のユニットに、ユーザがケーブルを接続することにより接続されている。即ち、図1の構成においては、画像処理装置205は、右目用画像処理装置であり、画像処理装置206は、左目用画像処理装置である。また、画像処理装置205と画像処理装置206は、LANやインターネットなどのネットワーク202により互いに通信可能に接続されている。
先ず、HMD100について説明する。HMD100は、右カメラ(右目用カメラ)101R、右表示装置102R、撮像画像出力部203R、表示画像入力部204Rで構成されている右目用のユニットを有する。同様に、HMD100は、左カメラ(左目用カメラ)101L、左表示装置102L、撮像画像出力部203L、表示画像入力部204Lで構成されている左目用のユニットを有する。
右カメラ101Rは、図1に示す如く、HMD100を頭部に装着したユーザの右目の位置近傍から見える現実空間の動画像を撮像するビデオカメラである。右カメラ101Rが撮像した各フレームの画像(撮像画像、若しくは現実空間画像と呼称する)のデータは、撮像画像出力部203R、I/F(インターフェース)201を介して画像処理装置205に送出される。なお、本実施の形態では、右カメラ101Rが第一のカメラとして機能する。
左カメラ101Lは、図1に示す如く、HMD100を頭部に装着したユーザの左目の位置近傍から見える現実空間の動画像を撮像するビデオカメラである。左カメラ101Lが撮像した各フレームの画像(撮像画像、若しくは現実空間画像と呼称する)のデータは、撮像画像出力部203L、I/F(インターフェース)201を介して画像処理装置206に送出される。なお、本実施の形態では、左カメラ101Lが第二のカメラとして機能する。
MPU200は、CPU、ROM、RAM等により構成されており、HMD100を構成する各部の動作制御を行う。また、係るROMには、右カメラ101Rと左カメラ101Lとの位置姿勢関係を示す位置姿勢関係情報が登録されている。なお、係る位置姿勢関係情報については、画像処理装置205や画像処理装置206が保持するようにしても良い。MPU200は係る位置姿勢関係情報を適宜画像処理装置205や画像処理装置206に送出する。
右表示装置102Rは、例えばLCDディスプレイや有機ELディスプレイ等の小型、軽量な表示デバイス(右目用表示装置)であり、HMD100を頭部に装着したユーザの右目の眼前に位置するように、HMD100に取り付けられているものである。なお、本実施の形態では、右表示装置102Rが第一の表示装置として機能する。
左表示装置102Lは、例えばLCDディスプレイや有機ELディスプレイ等の小型、軽量な表示デバイス(左目用表示装置)であり、HMD100を頭部に装着したユーザの左目の眼前に位置するように、HMD100に取り付けられているものである。なお、本実施の形態では、左表示装置102Lが第二の表示装置として機能する。
撮像画像出力部203Rは、右カメラ101Rから受けた撮像画像のデータをI/F201を介して画像処理装置205に送出する。
撮像画像出力部203Lは、左カメラ101Lから受けた撮像画像のデータをI/F201を介して画像処理装置206に送出する。
表示画像入力部204Rは、画像処理装置205からI/F201を介して受信した画像を右表示装置102Rに対して送出する。
表示画像入力部204Lは、画像処理装置206からI/F201を介して受信した画像を左表示装置102Lに対して送出する。
I/F201は、ビデオ画像入出力端子、例えばDVI、S−VIDEO、IEEE1394等で構成されており、HMD100に画像処理装置205、206を接続するためのものである。
次に、画像処理装置205について説明する。画像処理装置205は、I/F205aを介してHMD100とのデータ通信を行う。画像処理装置205は後述する処理により、右カメラ101Rから見える現実空間の画像と仮想空間の画像との合成画像(右目用合成画像)を生成し、HMD100に送出する。なお、本実施の形態では、画像処理装置205が第一の画像処理装置として機能する。
次に、画像処理装置206について説明する。画像処理装置206は、I/F206aを介してHMD100とのデータ通信を行う。画像処理装置206は後述する処理により、左カメラ101Lから見える現実空間の画像と仮想空間の画像との合成画像(左目用合成画像)を生成し、HMD100に送出する。なお、本実施の形態では、画象処理装置206が第二の画像処理装置として機能する。
以下の説明では一例として、右カメラ101Rを「マスターカメラ」、左カメラ101Lを「スレイブカメラ」とする。また、マスターカメラを含む右目用のユニット用に設けられている画像処理装置205を「マスター画像処理装置」、スレイブカメラを含む左目用のユニット用に設けられている画像処理装置206を「スレイブ画像処理装置」とする。係る説明では、右目についての構成をマスター、左目についての構成をスレイブとしているが、逆にしてもシステムの動作は実質的には同じである。
ユーザは、本システムを使用するときに、HMD100と画像処理装置205、206をケーブルで接続し、システムの電源を投入する。電源投入後の立上げ処理の中で、HMD100の右目用ユニット及び左目用ユニットそれぞれは、接続されたそれぞれの画像処理装置に対して、右目用ユニット、左目用ユニットであることを示す情報を送信する。この情報をそれぞれ受けた画像処理装置205、206は、下記の機能構成で動作する。
図3は、画像処理装置205,206の機能構成を示すブロック図である。なお、図3においては、マスター画像処理装置205とスレーブ画像処理装置206の構成が異なっているように記載されているが、右目用ユニットに画像処理装置206が接続され、左目用ユニットに画像処理装置205が接続されることもある。この場合においても、それぞれの画像処理装置が動作可能なような構成をそれぞれの画像処理装置は有する。
先ず、画像処理装置205について説明する。
識別情報取得部317は、接続している右カメラ101Rから識別情報を取得する。取得した識別情報は、制御部303に送出される。
位置姿勢情報取得部301は、ネットワーク202に接続された外部の不図示のセンサシステムが計測した、右カメラ101Rの位置姿勢を示すデータ(位置姿勢情報)を、ネットワーク202を介して取得する。係るセンサシステムには磁気センサ、光学式センサ、超音波式センサなど様々なセンサが適用できるが、右カメラ101Rの位置姿勢を計測可能なセンサであれば、如何なるセンサを用いても良い。また、カメラの位置姿勢を計測するためのセンサシステムについては周知の技術であるので、係るセンサシステムについての説明は省略する。位置姿勢情報取得部301は、取得した位置姿勢情報を後段の位置姿勢算出部304に送出する。
現実画像入力部302は、右カメラ101Rから順次送出される各フレームの撮像画像を取得し、画像合成部307に送出する。
位置姿勢算出部304は、位置姿勢情報取得部301から受けた位置姿勢情報を位置姿勢情報送信部305、仮想画像作成部306に対して送出する。なお、右カメラ101Rの位置姿勢情報は、現実画像入力部302が入力した撮像画像を併用して求めることもできる。この場合、現実画像入力部302は、入力した撮像画像を位置姿勢算出部304にも送出する。従って位置姿勢算出部304は、センサシステムから取得する位置姿勢情報をそのまま用いても良いし、係る位置姿勢情報を、撮像画像を用いて補正するようにしても良い。即ち、位置姿勢算出部304は、右カメラ101Rの位置姿勢情報を取得することができるのであれば、如何なる方法を用いても良い。なお、右カメラ101Rが撮像した撮像画像から右カメラ101Rの位置姿勢を推定する為の技術については周知の技術であるので、これについての説明は省略する。
そして如何なる方法でもって右カメラ101Rの位置姿勢情報を取得しても、位置姿勢算出部304は、係る位置姿勢情報を、位置姿勢情報送信部305、仮想画像作成部306に送出する。
制御部303は、識別情報取得部317から受けた識別情報に基づいて接続状態の判断を実施し、判断結果に基づいて、マスター画像装置として動作するのか、スレーブ画像処理装置として動作するのかを決定する。また、画像処理装置205を構成する各部の動作制御を行うとともに、画像処理装置206とのデータ通信を制御する。
位置姿勢情報送信部305は、位置姿勢算出部304から受けた位置姿勢情報を画像処理装置206側に送信する。
仮想画像作成部306は、位置姿勢算出部304から受けた位置姿勢情報が示す位置姿勢を有する視点から見える仮想空間の画像(仮想空間画像)を作成する。係る仮想空間画像の作成方法については周知の技術であるので、これについての説明は省略する。そして作成した仮想空間画像は、後段の画像合成部307に送出する。
画像合成部307は、現実画像入力部302から受けた現実空間の画像上に、仮想画像作成部306から受けた仮想空間画像を重畳(合成)し、合成画像(右目用合成画像)を作成する。現実空間の画像と仮想空間画像とを合成した合成画像の作成方法については様々な技術があり、画像合成部307は如何なる技術を用いて合成画像を作成しても良い。そして画像合成部307は作成した合成画像を、後段の画像出力部308に送出する。
画像出力部308は、画像合成部307から受けた合成画像を、HMD100が有するI/F201に対して送出する。係る合成画像は、I/F201、表示画像入力部204Rを介して右表示装置102Rに送出され、そこで表示される。これにより、HMD100を頭部に装着したユーザの右目の眼前には、係る合成画像が表示されることになる。
次に、画像処理装置206について説明する。
識別情報取得部318は、接続している左カメラ101Lから識別情報を取得する。取得した識別情報は、制御部312に送出される。
位置姿勢情報受信部310は、上記位置姿勢情報送信部305によって送信された位置姿勢情報を受信すると、これを後段の位置姿勢算出部313に送出する。また、位置姿勢情報受信部310は、MPU200が保持している上記位置姿勢関係情報を、このMPU200からI/F201を介して受信すると、これを後段の位置姿勢算出部313に送出する。
現実画像入力部311は、左カメラ101Lから順次送出される各フレームの撮像画像を取得し、画像合成部315に送出する。
位置姿勢算出部313は、位置姿勢情報受信部310から受けた位置姿勢情報と、位置姿勢関係情報とを用いて、左カメラ101Lの位置姿勢を求める。そして求めた左カメラ101Lの位置姿勢を示すデータを、後段の仮想画像作成部314に送出する。なお、画像処理装置205側と同様の理由で、位置姿勢算出部313が求めた位置姿勢を、撮像画像を用いて補正するなど、位置姿勢の算出に撮像画像を用いる場合には、現実画像入力部311は、入力した撮像画像を位置姿勢算出部313にも送出する。
そして如何なる方法でもって左カメラ101Lの位置姿勢を求めても、位置姿勢算出部313は、求めた位置姿勢を示すデータを、仮想画像作成部314に送出する。
制御部312は、識別情報取得部318から受けた識別情報に基づいて接続状態の判断を実施し、判断結果に基づいて、マスター画像装置として動作するのか、スレーブ画像処理装置として動作するのかを決定する。また、画像処理装置206を構成する各部の動作制御を行うとともに、画像処理装置205とのデータ通信を制御する。
仮想画像作成部314は、位置姿勢算出部313から受けたデータが示す位置姿勢を有する視点から見える仮想空間の画像(仮想空間画像)を作成する。係る仮想空間画像の作成方法については周知の技術であるので、これについての説明は省略する。そして作成した仮想空間画像は、後段の画像合成部315に送出する。
画像合成部315は、現実画像入力部311から受けた現実空間の画像上に、仮想画像作成部314から受けた仮想空間画像を重畳(合成)し、合成画像(左目用合成画像)を作成する。現実空間の画像と仮想空間画像とを合成した合成画像の作成方法については様々な技術があり、画像合成部315は如何なる技術を用いて合成画像を作成しても良い。そして画像合成部315は作成した合成画像を、後段の画像出力部316に送出する。
画像出力部316は、画像合成部315から受けた合成画像を、HMD100が有するI/F201に対して送出する。係る合成画像は、I/F201、表示画像入力部204Lを介して左表示装置102Lに送出され、そこで表示される。これにより、HMD100を頭部に装着したユーザの左目の眼前には、係る合成画像が表示されることになる。
図4は、画像処理装置205、画像処理装置206のそれぞれが行う処理のフローチャートである。なお、各ステップにおいて行う処理の詳細については上述の通りであるので、ここでは簡単に説明する。
ステップS401では、識別情報取得部317は、接続している右カメラ101Rから識別情報を取得する。そして、識別情報取得部317は、取得した識別情報を制御部303に送出する。制御部303は、接続状態を判断し、この後の動作を決定する。この例では、マスター画像装置として動作することを決定する。
ステップS402では、位置姿勢情報取得部301は、右カメラ101Rの位置姿勢を示す位置姿勢情報を取得する。そして位置姿勢情報取得部301は、取得した位置姿勢情報を後段の位置姿勢算出部304に送出する。
ステップS403では、位置姿勢算出部304は、位置姿勢情報取得部301から受けた位置姿勢情報、若しくは何れかの方法でもって求めた位置姿勢情報を、位置姿勢情報送信部305、仮想画像作成部306に対して送出する。位置姿勢情報送信部305は、位置姿勢算出部304から受けた位置姿勢情報を画像処理装置206側に送信する。
ステップS404では、現実画像入力部302は、右カメラ101Rから順次送出される各フレームの撮像画像を取得し、画像合成部307に送出する。なお、ステップS404における処理は、ステップS403の前で行っても良いので、この場合、ステップS403で位置姿勢情報を撮像画像を用いて補正するなどの処理を行う場合には、係る撮像画像は位置姿勢算出部304に対しても送出する。これにより、ステップS403では、係る撮像画像を用いて位置姿勢情報を求めることができる。
ステップS405では、仮想画像作成部306は、位置姿勢算出部304から受けた位置姿勢情報が示す位置姿勢を有する視点から見える仮想空間の画像(仮想空間画像)を作成する。そして作成した仮想空間画像は、後段の画像合成部307に送出する。
ステップS406では、画像合成部307は、現実画像入力部302から受けた現実空間の画像上に、仮想画像作成部306から受けた仮想空間画像を重畳(合成)し、合成画像(右目用合成画像)を作成する。そして画像合成部307は作成した合成画像を、後段の画像出力部308に送出する。
ステップS407では、画像出力部308は、画像合成部307から受けた合成画像を、HMD100が有するI/F201に対して送出する。
最後にステップS408では、制御部303は、本処理の終了条件が満たされたか否か、本処理の終了指示が外部から入力されたか否かを判断する。係る判断の結果、本処理の終了条件が満たされた、若しくは、本処理の終了指示が外部から入力された場合には、本処理を終了する。一方、本処理の終了条件は満たされていないし、本処理の終了指示が外部から入力されていない場合には、処理をステップS402に戻し、次のフレームについて以降の処理を行う。
ステップS451では、識別情報取得部318は、接続している左カメラ101Lから識別情報を取得する。そして、識別情報取得部318は、取得した識別情報を制御部312に送出する。制御部312は接続状態を判断し、この後の動作を決定する。この例では、スレーブ画像装置として動作することを決定する。
一方、ステップS452では、位置姿勢情報受信部310は、MPU200が保持している上記位置姿勢関係情報を、このMPU200からI/F201を介して受信(取得)すると、これを後段の位置姿勢算出部313に送出する。
ステップS453では、位置姿勢情報受信部310は、上記位置姿勢情報送信部305によって送信された位置姿勢情報を受信すると、これを後段の位置姿勢算出部313に送出する。
ステップS454では、位置姿勢算出部313は、位置姿勢情報受信部310から受けた位置姿勢情報と位置姿勢関係情報とを用いて、左カメラ101Lの位置姿勢を求める。そして求めた左カメラ101Lの位置姿勢を示すデータを、後段の仮想画像作成部314に送出する。
ステップS455では、現実画像入力部311は、左カメラ101Lから順次送出される各フレームの撮像画像を取得し、画像合成部315に送出する。なお、ステップS455における処理は、ステップS454の前で行っても良いので、この場合、ステップS454で位置姿勢を撮像画像を用いて補正するなどの処理を行う場合には、係る撮像画像は位置姿勢算出部313に対しても送出する。これにより、ステップS454では、係る撮像画像を用いて位置姿勢を求めることができる。
ステップS456では、仮想画像作成部314は、位置姿勢算出部313から受けたデータが示す位置姿勢を有する視点から見える仮想空間の画像(仮想空間画像)を作成する。そして作成した仮想空間画像は、後段の画像合成部315に送出する。
ステップS457では、画像合成部315は、現実画像入力部311から受けた現実空間の画像上に、仮想画像作成部314から受けた仮想空間画像を重畳(合成)し、合成画像(左目用合成画像)を作成する。そして画像合成部315は作成した合成画像を、後段の画像出力部316に送出する。
ステップS458では、画像出力部316は、画像合成部315から受けた合成画像を、HMD100が有するI/F201に対して送出する。
最後にステップS459では、制御部312は、本処理の終了条件が満たされたか否か、本処理の終了指示が外部から入力されたか否かを判断する。係る判断の結果、本処理の終了条件が満たされた、若しくは、本処理の終了指示が外部から入力された場合には、本処理を終了する。一方、本処理の終了条件は満たされていないし、本処理の終了指示が外部から入力されていない場合には、処理をステップS453に戻し、次のフレームについて以降の処理を行う。
以上の説明により、本実施形態によれば、右カメラ101Rの位置姿勢を求めれば、左カメラ101Lの位置姿勢は、係る位置姿勢と上記位置姿勢関係情報とを用いて求めることができる。従って、それぞれのカメラの位置姿勢をそれぞれの画像処理装置で求めるので、それぞれのカメラの位置姿勢の精度はより高くなり、また、計測の手間もより軽減される。そして、本実施形態によれば、このように従来よりも精度の高い左右のカメラの位置姿勢を求めることができるので、より精度の高い立体視をユーザに提供することができる。また、ユーザは、画像処理装置の接続を意識することなく行うことができる。
<変形例1>
本実施形態では、右目用ユニット、左目用ユニットであることを示す情報を送信することを説明した。この情報の具体的な内容として、右目用ユニットと左目用ユニットが、それぞれに固有の識別情報(デバイス名など)を、それぞれの画像処理装置に対して送信する。画像処理装置側では、識別情報と、この識別情報を有するデバイスがマスターかスレイブかを示すフラグ情報と、をセットにして、複数セット保持している。
従って、画像処理装置205は、送信された識別情報を受けると、この識別情報に対応するフラグ情報を参照し、接続されているカメラがマスターかスレイブかを認識する。そして係るカメラがマスターであると認識すると、画像処理装置205はマスター画像処理装置として動作する。一方、このカメラがスレイブであると認識すると、画像処理装置205はスレイブ画像処理装置として動作する。
<変形例2>
第1の実施形態では、右カメラ101Rと左カメラ101Lとの位置姿勢関係を示す位置姿勢関係情報は、HMD100側に保持されていた。しかし、画像処理装置205、206側に保持させておいても良い。この場合、スレイブ画像処理装置として動作する側の装置は、位置姿勢関係情報が必要なときに、自身若しくは他の画像処理装置から取得すれば良い。
[第2の実施形態]
第1の実施形態では、図3に示した画像処理装置205、206を構成する各部は全てハードウェアでもって構成されているものとして説明した。しかし、その一部をコンピュータプログラムでもって実装し、係るコンピュータプログラムを一般のPC(パーソナルコンピュータ)に実行させても、同様の結果が得られる。
図5は、画像処理装置205、206それぞれに適用可能なコンピュータのハードウェア構成を示すブロック図である。
CPU501は、RAM502やROM503に格納されているコンピュータプログラムやデータを用いてコンピュータ全体の制御を行うと共に、コンピュータを適用した画像処理装置205や画像処理装置206が行う上述の各処理を実行する。例えば、本コンピュータを画像処理装置205に適用する場合には、CPU501は制御部303として機能することになる。また、例えば、本コンピュータを画像処理装置206に適用する場合には、CPU501は制御部312として機能することになる。
RAM502は、外部記憶装置506からロードされたコンピュータプログラムやデータ、I/F507を介して外部から受信したデータ等を一時的に記憶するためのエリアを有する。更にRAM502は、CPU501が各種の処理を実行する際に用いるワークエリアも有する。即ち、RAM502は各種のエリアを適宜提供することができる。
ROM503には、ブートプログラムや本コンピュータの設定データ等が格納されている。
操作部504は、キーボードやマウスなどにより構成されており、本コンピュータの操作者が操作することで、各種の指示をCPU501に対して入力することができる。
表示部505は、CRTや液晶画面などにより構成されており、CPU501による処理結果を画像や文字などでもって表示することができる。
外部記憶装置506は、ハードディスクドライブ装置に代表される大容量情報記憶装置である。外部記憶装置506には、OS(オペレーティングシステム)や、画像処理装置205や画像処理装置206が行う上述の各処理をCPU501に実行させるためのコンピュータプログラムやデータが保存されている。
例えば、本コンピュータを画像処理装置205に適用する場合には、係るコンピュータプログラムには次のようなコンピュータプログラムが含まれていることになる。即ち、位置姿勢算出部304、仮想画像作成部306、画像合成部307の各部の機能をCPU501に実行させるためのコンピュータプログラムが含まれている。
また、例えば、本コンピュータを画像処理装置206に適用する場合には、係るコンピュータプログラムには次のようなコンピュータプログラムが含まれていることになる。即ち、位置姿勢算出部313、仮想画像作成部314、画像合成部315の各部の機能をCPU501に実行させるためのコンピュータプログラムが含まれている。
また、外部記憶装置506に保存されているデータには、仮想空間の画像を生成するためのデータや、既知のデータとして説明したものが含まれる。
外部記憶装置506に保存されているコンピュータプログラムやデータは、CPU501による制御に従って適宜RAM502にロードされ、CPU501による処理対象となる。
I/F507は、本コンピュータと外部装置とを接続するためのもので、例えば、係るI/F507には、上記ネットワーク202や、I/F201が接続されることになる。本コンピュータを画像処理装置205に適用する場合には、係るI/F507は、位置姿勢情報取得部301、現実画像入力部302、位置姿勢情報送信部305、画像出力部308に対応するものである。また、本コンピュータを画像処理装置206に適用する場合には、係るI/F507は、位置姿勢情報受信部310、現実画像入力部311、画像出力部316に対応するものである。
508は上述の各部を繋ぐバスである。
なお、ここでは画像処理装置205と画像処理装置206には、同じハードウェア構成を有するコンピュータを適用したが、異なるハードウェア構成を有するコンピュータを適用しても良い。
[その他の実施形態]
また、本発明の目的は、以下のようにすることによって達成されることはいうまでもない。即ち、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給する。係る記憶媒体は言うまでもなく、コンピュータ読み取り可能な記憶媒体である。そして、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行する。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。
また、コンピュータが読み出したプログラムコードを実行することにより、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行う。その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
さらに、記録媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれたとする。その後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
本発明を上記記録媒体に適用する場合、その記録媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。
ユーザがステレオビデオシースルーHMD100を装着した状態を模式的に示す図である。 本実施形態に係るシステムの機能構成を示すブロック図である。 画像処理装置205,206の機能構成を示すブロック図である。 画像処理装置205、画像処理装置206のそれぞれが行う処理のフローチャートである。 画像処理装置205、206に適用可能なコンピュータのハードウェア構成を示すブロック図である。

Claims (3)

  1. 頭部装着型表示装置が有する第一のカメラが撮像する現実空間の画像を受信する第一の画像処理装置と、当該頭部装着型表示装置が有する第二のカメラが撮像する現実空間の画像を受信する第二の画像処理装置と、を備えるシステムであって、
    前記第一の画像処理装置は、
    前記第一のカメラがマスタであるか否かを判断する判断手段と、
    前記判断手段の判断の結果、マスタである場合は前記第一のカメラの位置姿勢情報を取得し、マスタでない場合は前記第二の画像処理装置から前記第二のカメラの位置姿勢情報とを取得する手段と、
    前記判断手段の判断の結果、マスタである場合、前記第一のカメラの位置姿勢情報を前記第二の画像処理装置に対して出力する手段と、
    前記判断手段の判断の結果、マスタでない場合、前記第一のカメラと前記第二のカメラとの位置姿勢関係を示す位置姿勢関係情報を取得する手段と、
    前記判断手段の判断の結果、マスタでない場合、前記第二のカメラの位置姿勢情報と前記位置姿勢関係情報に基づいて前記第一のカメラの位置姿勢情報を求める手段と、
    前記第一のカメラの位置姿勢情報に基づいて仮想空間画像を生成する手段と、
    前記第一のカメラが撮像した現実空間の画像を取得する手段と、
    前記現実空間の画像と前記仮想空間画像とを合成した合成画像を生成する生成手段と、
    前記合成画像を前記頭部装着型表示装置に対して出力する手段とを備え、
    前記第二の画像処理装置は、
    前記第二のカメラがマスタであるか否かを判断する判断手段と、
    前記判断手段の判断の結果、マスタである場合は前記第二のカメラの位置姿勢情報を取得し、マスタでない場合は前記第一の画像処理装置から前記第一のカメラの位置姿勢情報を取得する手段と、
    前記判断手段の判断の結果、マスタである場合、前記第二のカメラの位置姿勢情報を前記第一の画像処理装置に対して出力する手段と、
    前記判断手段の判断の結果、マスタでない場合、前記第一のカメラと前記第二のカメラとの位置姿勢関係を示す位置姿勢関係情報を取得する手段と、
    前記判断手段の判断の結果、マスタでない場合、前記第一のカメラの位置姿勢情報と前記位置姿勢関係情報とに基づいて前記第二のカメラの位置姿勢情報を求める手段と、
    前記第二のカメラの位置姿勢情報に基づいて仮想空間画像を生成する手段と、
    前記第二のカメラが撮像した現実空間の画像を取得する手段と、
    前記第二のカメラが撮像した現実空間の画像と、前記第二のカメラの位置姿勢情報に基づいて生成した仮想空間画像と、を合成した合成画像を生成する生成手段と、
    前記合成画像を前記頭部装着型表示装置に対して出力する手段と
    を備えることを特徴とするシステム。
  2. 前記頭部装着型表示装置は、更に、
    前記第一の画像処理装置の生成手段が生成した合成画像を表示する第一の表示装置と、
    前記第二の画像処理装置の生成手段が生成した合成画像を表示する第二の表示装置とを備える
    ことを特徴とする請求項1に記載のシステム。
  3. 前記第一の画像処理装置の判断手段と、前記第二の画像処理装置の判断手段は、前記第一のカメラと前記第二のカメラのそれぞれから送信される識別情報に基づきマスタであるか否かを判断する
    ことを特徴とする請求項1に記載のシステム。
JP2007116113A 2007-04-25 2007-04-25 画像処理システム Expired - Fee Related JP4689639B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2007116113A JP4689639B2 (ja) 2007-04-25 2007-04-25 画像処理システム
US12/058,892 US8049775B2 (en) 2007-04-25 2008-03-31 System for obtaining connection relationships between stereoscopic image processing devices
CN2008100892573A CN101295206B (zh) 2007-04-25 2008-04-25 用于立体观察的系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007116113A JP4689639B2 (ja) 2007-04-25 2007-04-25 画像処理システム

Publications (3)

Publication Number Publication Date
JP2008277920A true JP2008277920A (ja) 2008-11-13
JP2008277920A5 JP2008277920A5 (ja) 2010-05-20
JP4689639B2 JP4689639B2 (ja) 2011-05-25

Family

ID=39886448

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007116113A Expired - Fee Related JP4689639B2 (ja) 2007-04-25 2007-04-25 画像処理システム

Country Status (3)

Country Link
US (1) US8049775B2 (ja)
JP (1) JP4689639B2 (ja)
CN (1) CN101295206B (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010066599A (ja) * 2008-09-11 2010-03-25 Brother Ind Ltd ヘッドマウントディスプレイ
JP2012018665A (ja) * 2010-06-11 2012-01-26 Nintendo Co Ltd 画像表示プログラム、装置、システムおよび方法
JP2012094101A (ja) * 2010-09-28 2012-05-17 Nintendo Co Ltd 画像処理プログラム、画像処理装置、画像処理システム、および画像処理方法
JP2012095261A (ja) * 2010-06-02 2012-05-17 Nintendo Co Ltd 画像表示システム、画像表示装置および画像表示方法
JP2016225885A (ja) * 2015-06-01 2016-12-28 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、画像処理システム及びプログラム
JP2017192079A (ja) * 2016-04-14 2017-10-19 キヤノン株式会社 データ分配装置、画像表示システム及びデータ分配方法
JP2018044867A (ja) * 2016-09-15 2018-03-22 株式会社Subaru ステレオ測距装置、ステレオ測距方法及びステレオ測距プログラム
US10015473B2 (en) 2010-06-11 2018-07-03 Nintendo Co., Ltd. Computer-readable storage medium, image display apparatus, image display system, and image display method

Families Citing this family (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9886231B2 (en) * 2008-03-28 2018-02-06 Kopin Corporation Head worn wireless computer having high-resolution display suitable for use as a mobile internet device
CN101995941B (zh) * 2009-08-13 2012-05-23 昆山扬明光学有限公司 头戴式显示系统
US20110080462A1 (en) * 2009-10-02 2011-04-07 Panasonic Corporation Playback device, integrated circuit, playback method, and program for stereoscopic video playback
WO2011039990A1 (ja) 2009-10-02 2011-04-07 パナソニック株式会社 立体視映像を再生することができる再生装置、集積回路、再生方法、プログラム
JP2011135202A (ja) * 2009-12-22 2011-07-07 Sony Corp 映像信号処理装置及び映像信号処理方法
US8384774B2 (en) * 2010-02-15 2013-02-26 Eastman Kodak Company Glasses for viewing stereo images
CA2696925A1 (en) * 2010-03-19 2011-09-19 Bertrand Nepveu Integrated field-configurable headset and system
JP2011250177A (ja) * 2010-05-27 2011-12-08 Toshiba Corp カメラモジュール及び画像記録方法
US9143767B2 (en) * 2010-06-01 2015-09-22 Intel Corporation Method and apparatus for adaptive stable image timing in stereoscopic 3D systems
US8384770B2 (en) 2010-06-02 2013-02-26 Nintendo Co., Ltd. Image display system, image display apparatus, and image display method
US8633947B2 (en) 2010-06-02 2014-01-21 Nintendo Co., Ltd. Computer-readable storage medium having stored therein information processing program, information processing apparatus, information processing system, and information processing method
US8602887B2 (en) * 2010-06-03 2013-12-10 Microsoft Corporation Synthesis of information from multiple audiovisual sources
EP2395764B1 (en) 2010-06-14 2016-02-17 Nintendo Co., Ltd. Storage medium having stored therein stereoscopic image display program, stereoscopic image display device, stereoscopic image display system, and stereoscopic image display method
JP5505637B2 (ja) * 2010-06-24 2014-05-28 ソニー株式会社 立体表示装置および立体表示装置の表示方法
US8767053B2 (en) * 2010-08-26 2014-07-01 Stmicroelectronics, Inc. Method and apparatus for viewing stereoscopic video material simultaneously with multiple participants
JP5804571B2 (ja) * 2010-09-06 2015-11-04 国立大学法人 東京大学 車両システム
JP4869430B1 (ja) * 2010-09-24 2012-02-08 任天堂株式会社 画像処理プログラム、画像処理装置、画像処理システム、および、画像処理方法
JP5739674B2 (ja) 2010-09-27 2015-06-24 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法
WO2012063542A1 (ja) 2010-11-09 2012-05-18 富士フイルム株式会社 拡張現実感提供装置
JP5846738B2 (ja) * 2011-01-06 2016-01-20 任天堂株式会社 表示制御プログラム、表示装置、表示システム、および、表示制御方法
US8941560B2 (en) * 2011-09-21 2015-01-27 Google Inc. Wearable computer with superimposed controls and instructions for external device
US9311883B2 (en) 2011-11-11 2016-04-12 Microsoft Technology Licensing, Llc Recalibration of a flexible mixed reality device
FR2984057B1 (fr) 2011-12-13 2014-01-03 Solidanim Systeme de tournage de film video
CN102508363A (zh) * 2011-12-28 2012-06-20 王鹏勃 一种基于增强现实技术的无线显示眼镜及其实现方法
CN103188512B (zh) * 2011-12-28 2015-05-27 华晶科技股份有限公司 三维影像产生装置
JP5901376B2 (ja) * 2012-03-23 2016-04-06 任天堂株式会社 情報処理装置、情報処理プログラム、情報処理システム、および情報処理方法
JP5966510B2 (ja) * 2012-03-29 2016-08-10 ソニー株式会社 情報処理システム
TWI524735B (zh) * 2012-03-30 2016-03-01 華晶科技股份有限公司 三維影像產生方法及裝置
GB201208088D0 (en) * 2012-05-09 2012-06-20 Ncam Sollutions Ltd Ncam
EP2879098A4 (en) * 2012-07-27 2016-03-16 Nec Solution Innovators Ltd SYSTEM AND METHOD FOR THE JOINT USE OF THREE-DIMENSIONAL ENVIRONMENTS
CN103576315B (zh) * 2012-07-30 2017-03-01 联想(北京)有限公司 显示装置
JPWO2014034378A1 (ja) * 2012-08-27 2016-08-08 ソニー株式会社 画像表示装置及び画像表示方法、情報通信端末及び情報通信方法、並びに画像表示システム
JP2014219448A (ja) * 2013-05-01 2014-11-20 コニカミノルタ株式会社 表示システム、表示方法、表示端末および表示プログラム
CN105359063B (zh) * 2013-06-09 2018-08-17 索尼电脑娱乐公司 利用追踪的头戴式显示器
US9961213B2 (en) * 2014-01-28 2018-05-01 Beijing Lenovo Software Ltd. Electronic device and image capturing apparatus
KR102262086B1 (ko) * 2014-05-28 2021-06-09 삼성전자 주식회사 이미지 처리 방법 및 장치
CN105721856B (zh) * 2014-12-05 2017-12-15 北京蚁视科技有限公司 一种用于近眼显示器的远程图像显示方法
ES1136432Y (es) * 2015-01-28 2015-05-11 Rubio Pablo Abad Sistema de adaptacion de gafas de realidad virtual para visualizacion de realidad aumentada estereoscopica envolvente
US10362290B2 (en) 2015-02-17 2019-07-23 Nextvr Inc. Methods and apparatus for processing content based on viewing information and/or communicating content
CA2977051C (en) 2015-02-17 2023-02-07 Nextvr Inc. Methods and apparatus for generating and using reduced resolution images and/or communicating such images to a playback or content distribution device
CN104883556B (zh) * 2015-05-25 2017-08-29 深圳市虚拟现实科技有限公司 基于增强现实的三维显示方法和增强现实眼镜
JP6614835B2 (ja) * 2015-07-15 2019-12-04 キヤノン株式会社 通信装置、ヘッドマウントディスプレイ、画像処理システム、通信方法及びプログラム
CN105093533A (zh) * 2015-08-20 2015-11-25 余剑锋 一种虚拟现实头盔装置
JP6590609B2 (ja) * 2015-09-15 2019-10-16 キヤノン株式会社 画像解析装置及び画像解析方法
CN106325521B (zh) 2016-08-31 2018-06-29 北京小米移动软件有限公司 测试虚拟现实头显设备软件的方法及装置
CN107919089B (zh) * 2016-10-09 2019-11-22 上海和辉光电有限公司 一种像素阵列及其虚拟现实中的显示电路
CN110520833B (zh) * 2017-05-09 2020-12-08 华为技术有限公司 一种vr绘图方法、设备及系统
US10735707B2 (en) 2017-08-15 2020-08-04 International Business Machines Corporation Generating three-dimensional imagery
US10475196B2 (en) * 2018-03-22 2019-11-12 Microsoft Technology Licensing, Llc Hybrid depth detection and movement detection
CN111050145B (zh) * 2018-10-11 2022-07-01 上海云绅智能科技有限公司 一种多屏融合成像的方法、智能设备及系统

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007097129A (ja) * 2005-08-29 2007-04-12 Canon Inc ステレオ表示装置及びその制御方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6177952B1 (en) * 1993-09-17 2001-01-23 Olympic Optical Co., Ltd. Imaging apparatus, image display apparatus and image recording and/or reproducing apparatus
US5777715A (en) * 1997-01-21 1998-07-07 Allen Vision Systems, Inc. Low vision rehabilitation system
JP2002159019A (ja) 2000-11-16 2002-05-31 Canon Inc 表示制御装置、撮影位置推測装置、表示システム、撮影システム、画像位置決め方法、撮影位置推測方法、及び処理プログラムを記録した記録媒体
JP4878083B2 (ja) * 2001-03-13 2012-02-15 キヤノン株式会社 画像合成装置及び方法、プログラム
US20060081793A1 (en) * 2004-01-26 2006-04-20 Microvision, Inc. Head-worn video display with viewing screen
JP4600290B2 (ja) * 2004-01-29 2010-12-15 コニカミノルタホールディングス株式会社 視覚補助表示装置
JP4364002B2 (ja) * 2004-02-06 2009-11-11 オリンパス株式会社 頭部装着型カメラ及び頭部装着型カメラによる撮影方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007097129A (ja) * 2005-08-29 2007-04-12 Canon Inc ステレオ表示装置及びその制御方法

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010066599A (ja) * 2008-09-11 2010-03-25 Brother Ind Ltd ヘッドマウントディスプレイ
JP2012095261A (ja) * 2010-06-02 2012-05-17 Nintendo Co Ltd 画像表示システム、画像表示装置および画像表示方法
JP2012018665A (ja) * 2010-06-11 2012-01-26 Nintendo Co Ltd 画像表示プログラム、装置、システムおよび方法
US10015473B2 (en) 2010-06-11 2018-07-03 Nintendo Co., Ltd. Computer-readable storage medium, image display apparatus, image display system, and image display method
JP2012094101A (ja) * 2010-09-28 2012-05-17 Nintendo Co Ltd 画像処理プログラム、画像処理装置、画像処理システム、および画像処理方法
JP2016225885A (ja) * 2015-06-01 2016-12-28 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、画像処理システム及びプログラム
JP2017192079A (ja) * 2016-04-14 2017-10-19 キヤノン株式会社 データ分配装置、画像表示システム及びデータ分配方法
JP2018044867A (ja) * 2016-09-15 2018-03-22 株式会社Subaru ステレオ測距装置、ステレオ測距方法及びステレオ測距プログラム

Also Published As

Publication number Publication date
CN101295206B (zh) 2010-07-28
US20080266386A1 (en) 2008-10-30
US8049775B2 (en) 2011-11-01
CN101295206A (zh) 2008-10-29
JP4689639B2 (ja) 2011-05-25

Similar Documents

Publication Publication Date Title
JP4689639B2 (ja) 画像処理システム
KR102517876B1 (ko) 증강 현실 데이터를 레코딩하기 위한 기술
JP5845211B2 (ja) 画像処理装置、画像処理方法
US10607412B2 (en) Mixed reality presentation system
JP2005107971A (ja) 複合現実空間画像生成方法及び複合現実感システム
JP2006209664A (ja) システム、画像処理装置、情報処理方法
JP2009123018A (ja) 画像処理装置、画像処理方法
JP2009025918A (ja) 画像処理装置、画像処理方法
JP2007219082A (ja) 複合現実感表示システム
JP2014186487A (ja) 複合現実提示システム、仮想現実提示システム、表示装置、情報処理装置、制御方法、プログラム
JP2007034628A (ja) 画像処理方法及び装置
JP4580678B2 (ja) 注視点位置表示装置
US20180041751A1 (en) Information processing apparatus, information processing method, and storage medium
JP4889036B2 (ja) 画像処理装置、画像処理方法
JP6515512B2 (ja) 表示装置、表示装置のキャリブレーション方法、およびキャリブレーションプログラム
JP5161544B2 (ja) 画像表示システム
JP2004233201A (ja) 位置姿勢計測方法
JP2008217119A (ja) システム、画像処理装置、画像処理方法
JP2006197036A (ja) 立体画像表示装置および立体画像表示方法
JP2018088604A (ja) 画像表示装置、画像表示方法、システム
EP2873242B1 (en) Stereoscopic pictures generation
JP7357554B2 (ja) 同期制御装置、同期制御装置の制御方法、システム
JP7175715B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP6702779B2 (ja) データ分配装置、画像表示システム及びデータ分配方法
JP2019040356A (ja) 画像処理装置、画像処理方法、コンピュータプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100324

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100324

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110121

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110216

R150 Certificate of patent or registration of utility model

Ref document number: 4689639

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140225

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees