JP4725595B2 - 映像処理装置、映像処理方法、プログラム及び記録媒体 - Google Patents

映像処理装置、映像処理方法、プログラム及び記録媒体 Download PDF

Info

Publication number
JP4725595B2
JP4725595B2 JP2008114408A JP2008114408A JP4725595B2 JP 4725595 B2 JP4725595 B2 JP 4725595B2 JP 2008114408 A JP2008114408 A JP 2008114408A JP 2008114408 A JP2008114408 A JP 2008114408A JP 4725595 B2 JP4725595 B2 JP 4725595B2
Authority
JP
Japan
Prior art keywords
image
video
user
screen
viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008114408A
Other languages
English (en)
Other versions
JP2009267729A (ja
Inventor
哲二郎 近藤
哲志 小久保
健司 田中
仁志 向井
和政 田中
裕之 森崎
啓文 日比
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2008114408A priority Critical patent/JP4725595B2/ja
Priority to EP20090156809 priority patent/EP2112547A3/en
Priority to US12/418,884 priority patent/US8441435B2/en
Priority to CN2009101369084A priority patent/CN101566875B/zh
Publication of JP2009267729A publication Critical patent/JP2009267729A/ja
Application granted granted Critical
Publication of JP4725595B2 publication Critical patent/JP4725595B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Description

本発明は、例えば、スクリーンに投影された映像から特定の部分の情報を得る場合に適用して好適な映像処理装置、映像処理方法、プログラム及び記録媒体に関する。
従来、バーチャル・リアリティを実現したり、ユーザの眼前に仮想画面を表示したりするための映像表示装置として、ユーザの頭部に装着するヘッド・マウント・ディスプレイ(HMD:Head Mounted Display)と呼ばれるインタフェース装置がある。ユーザがヘッド・マウント・ディスプレイを装着すると、ユーザの視線方向に合わせて表示される映像が変わる。
特許文献1には、親機と子機を連動させて、親機の表示される映像に関連する文字等の情報を見ることができる技術について記載がある。
特許文献2には、ユーザの視線を検出し、カメラで撮影された映像と、受信手段によって受信された映像を同時に表示する技術について記載がある。
特開2006−101561号公報 特開平10−191288号公報
ところで、映像を重畳するためには、大きく2つの技術が用いられる。第1の技術は、虚像の光学系を用いるものである。しかしこの技術では、物体の距離と虚像の位置の不一致が生じやすい。一方、第2の技術は、ユーザの網膜に映像を直接投影するものである。しかし、この技術は、ユーザの眼球運動に投影される映像の位置が左右されやすい。
また、いずれの技術を用いたヘッド・マウント・ディスプレイにおいても、ユーザの眼球の位置に対して厳密な精度が要求される光学系が必要となる。このため、眼球の焦点がわずかでもずれると、ユーザは大きなストレスを感じてしまう。ヘッド・マウント・ディスプレイは虚像をユーザに見せるものであり、一般的なディスプレイ装置のように、表示面から射出される光線によって実像をユーザに見せる光学系とは異なることがストレスの原因であると言える。
特許文献1には、小さな表示端末を用いて、直接ユーザの手元で実像を観察できる技術について開示されている。しかし、ユーザが所望する映像を取得するためには、撮影対象となる被写体や情景(以下、これらを「実世界」とも言う。)もしくはスクリーンに投影された画面を、一旦カメラで撮影する必要がある。
また、特許文献2に記載があるように、撮影した映像をヘッド・マウント・ディスプレイに表示する場合、ユーザの眼球の位置に対する光学性の精度を厳密に改善することは可能である。しかし、この技術を用いると、ユーザに提示される映像は一旦撮影された映像であるため、実世界に比べて画質が大きく劣化する。このため、例えば、実世界では見える映像が、ヘッド・マウント・ディスプレイでは表示される映像の解像度が低下し、不鮮明となってしまう。また、実世界での動きに比べて映像が表示されるまでに遅延が生じやすい。この結果、ユーザが実世界で見ようとする目的物を探しづらくなってしまう。
また、実世界もしくは映像が投影されるスクリーンと、ユーザ自身が持つ小型の表示端末の距離は大きく異なる。このため、実世界やスクリーンに投影された映像のある場所を指示する場合、ユーザの眼球の焦点調節が必要になる。しかし、ユーザの眼球の焦点は、小型の表示端末の画面に合うため、正確に距離を求めることができない。
また、ヘッド・マウント・ディスプレイは、これを装着したユーザの視野角を制限したり、ユーザの頭部や耳に不快感が生じたりするといった問題がある。
本発明はこのような状況に鑑みて成されたものであり、視野角が制限されることなく、実世界もしくはスクリーンに投影された映像から特定の部分の情報を得ることを目的とする。
本発明は、被写体を撮像する撮像装置で撮像された映像が入力され、又はスクリーンに投影される映像の元データ映像受信インタフェースを介して入力され、実像光学系である表示手段の表示面を透過状態又は不透過状態に切り替える。次に、表示手段の表示面が不透過状態である場合に、映像提示部が表示面に映像を提示し、ユーザの視点位置を検出する。次に、撮像装置によって撮影された映像からユーザの視線方向を検出する。次に、被写体が実世界の情景であって、実世界の情景を撮像した映像が入力部を介して入力する場合又は被写体がスクリーンに投影される映像であって、スクリーンを撮像した映像が入力部を介して入力する場合に、ユーザの視点位置、ユーザの視線方向、表示面から被写体までの距離、表示手段の表示面に対して指示された位置及びユーザの視点の移動に基づいて、映像を当該ユーザの視点位置から表示手段の表示面を通して見たときの表示面の画枠に対応して抽出した範囲の映像を生成し、被写体がスクリーンに投影される映像であって、スクリーンに投影される映像の元データから検索された、入力部を介して入力するスクリーンを撮像した映像より、ユーザがスクリーンを真正面から見た場合の視点変換映像を生成する。次に、ユーザの視点位置における表示手段の表示面に対して指示された位置を検出し、生成された映像から抽出した指示された位置の被写体の映像をスクリーンに表示させる。そして、表示面が不透過状態であって、表示面に提示された映像を取得する指示を検出した場合に、生成された映像のズーム率を変えて映像提示部に供給する。
このようにしたことで、実世界もしくはスクリーンに投影された映像から特定の部分が抽出された映像が提示される。このため、ユーザは、映像が表示されるまでの遅延や映像劣化がない状態で映像を取得し、この取得した映像に対して操作できる。また、取得した映像は、ユーザの手元で詳細に観察できる。
本発明によれば、ユーザは、実世界もしくはスクリーンに投影された映像から特定の部分の映像を抽出する場合に、周辺視野も含めた広い視野角で目的とする映像を得られる。このため、ユーザは取得する映像に違和感なく、自然な操作で目的とする映像を取得しやすくなるという効果がある。
以下、本発明の一実施の形態例について、添付図面を参照して説明する。本実施の形態例では、実世界の情景、大画面のスクリーン等に投影された映像、大画面ディスプレイ装置によって提示される映像等をユーザが視聴しながら、その映像に含まれる情報を取得できる映像処理システム1に適用した例について説明する。
図1は、本発明の一実施の形態例に係る映像処理システム1の構成例である。
映像処理システム1は、各種のメニュー、映像等が表示される透過ディスプレイ装置2を備える。透過ディスプレイ装置2は、映像提示部7から映像が提示される表示手段である。また、透過ディスプレイ装置2の表示面には、任意のタイミングで透過と不透過(拡散状態)を切り替える可能な透過ディスプレイパネル12が形成される。本実施の形態例では、透過ディスプレイパネル12として、例えば、UMUフィルム(登録商標)が貼られる。このフィルムは、所定の電圧が加わることによって透過状態と不透過(拡散)状態が切り替わる。不透過状態の透過ディスプレイパネル12には、小型のプロジェクタ装置である映像提示部7によって映像が提示される。映像提示部7が提示する映像は、ユーザ10の視野角内に含まれる。映像提示部7によって映像が投影されない場合、透過ディスプレイパネル12は透過状態となる。
透過ディスプレイパネル12が透過状態である場合、ユーザ10は、透過ディスプレイ装置2を通してその背面の実世界(情景)、もしくは大画面のスクリーン9に投影された映像、大画面ディスプレイ装置によって提示される映像等を見ることができる。以下の説明では、スクリーン9に投影された映像について説明するが、実世界についても同様の処理が行えるものとする。
透過ディスプレイ装置2の両側面には、ユーザ10が視聴している場所(以下、「視点位置」とも言う。)を検出するため、ユーザの視点を撮影する視点位置カメラ4a,4bが設置される。視点位置は、視点位置カメラ4a,4bが撮影した映像に基づいて、後述する視点位置検出部16によって求められる。ここで、視点位置カメラ4a,4bが設置される面を透過ディスプレイ装置2の表面とする。透過ディスプレイ装置2の裏面(表示手段の前記ユーザの視点位置と反対側の面)には、ユーザ10が視線を向けるスクリーン9に投影される映像を撮影する視線カメラ3a,3bが設置される。視線カメラ3a,3b、視点位置カメラ4a,4bは、静止画又は動画を撮像できる撮像装置であり、透過ディスプレイ装置2に応動して撮像方向が移動する。
なお、視線カメラ3a,3bと視点位置カメラ4a,4bは、赤外線を利用してユーザ10の視点を検出する赤外線カメラ、視点検出用の測距装置であってもよい。また、視線カメラ3a,3bと視点位置カメラ4a,4bは、透過ディスプレイ装置2に一体形成されていなくてもよい。例えば、視点カメラ3a,3bと視点位置カメラ4a,4bは、透過ディスプレイ装置2の外枠に取り付けるのではなく、ユーザ10がいる室内に設置してもよい。
透過ディスプレイ装置2の表面には、ユーザ10が手で触って操作可能なタッチパネル6が形成される。ユーザ10は、タッチパネル6の表示面のメニュー、映像、アイコンに対応する位置は、直接ペン型の入力装置等のポインティングデバイスやユーザ10の指で触れて操作できる。
透過ディスプレイ装置2の外枠には、ユーザ10が各種の指示操作を行うための操作部5が設置される。操作部5は、各種ボタンを備える。本例では、ユーザ10が透過ディスプレイ装置2を持ちながら移動したり、視点を動かしたりする場合に方向指示等が行える視点移動ボタン5aと、ユーザ10が詳細に見たい部分のズーム(映像の拡大・縮小表示)を指示するズームボタン5bが取り付けられる。また、この枠には、ユーザ10が取得を希望する映像の取得を指示する映像取得ボタン5cが取り付けられる。また、操作部5は、透過ディスプレイパネル12の透過状態と不透過状態を切り替えるための透過状態切替えボタン5dと、タッチパネル6を作動させてメニューアイコン等を表示させるためのタッチパネル切り替えボタン(不図示)等を備える。タッチパネル6にこれらのボタンのアイコンを表示させてアイコンをタッチして所望の操作をするようにしてもよい。
図2は、映像処理システム1の内部構成例である。
映像処理システム1は、各機能ブロックを制御する制御部20を備える。制御部20は、例えば、マイクロプロセッサ(MPU:Micro Processing Unit)によって構成される。制御部20は、ユーザ10の視点位置を検出する視点位置検出部16によって検出されたユーザ10の視点位置と、視線カメラ3a,3bが撮影した映像に基づいて、透過ディスプレイパネル12に提示する映像を生成する。生成された映像は、ユーザ10の視点位置から透過ディスプレイパネル12を通して見たときの透過ディスプレイパネル12の画枠に対応して映像提示部7に供給される。
映像処理装置25は、視線カメラ3a,3b、視点位置カメラ4a,4bによって撮像された映像が入力される入力部14を備える。また、映像処理装置25は、視線カメラ3a,3bによって撮像された映像に基づいてユーザ10の視線方向を検出する視線検出部15を備える。視線検出部15は、検出したユーザ10の視線方向を撮像した映像からユーザ10のスクリーン9に対する位置を検出する。また、映像処理装置25は、視点位置カメラ4a,4bによって撮像された映像に基づいてスクリーン9に対するユーザ10(視点)の位置を視点位置として検出する視点位置検出部16を備える。
また、映像処理装置25は、透過ディスプレイ装置2に提示する映像を生成する視点位置映像演算部17を備える。視点位置映像演算部17には、視線検出部15によって検出されたユーザ10の視線方向と、視点位置検出部16によって検出されたユーザ10の視点位置、被写体との距離(本例では、透過ディスプレイ装置2とスクリーン9の距離)が入力される。視点位置映像演算部17は、これらの入力された情報に基づいて、ユーザ10の視点位置から透過ディスプレイパネル12を通してスクリーン9に提示された映像を見たときの映像を生成する。この映像は、透過ディスプレイパネル12の画枠の内部に収まる大きさとなる。そして、映像処理装置25は、ユーザ10がタッチパネル6に指示した座標位置を指示位置として検出し、視点位置映像演算部17によって生成された映像からその指示位置の映像を抽出する指示位置検出部18と、これらの情報をタッチパネル6に供給する出力部19を備える。
視線カメラ3a,3bは、スクリーン9に投影された映像を撮影し、生成した映像データを入力部14に供給する。また、スクリーン9に投影される映像やチューナ等から供給される映像は、映像受信インタフェース21を介して入力部14に入力される。
視点位置カメラ4a,4bは、ユーザ10の視点を撮影し、生成した映像データを入力部14に供給する。また、タッチパネル6は、ユーザ10がパネル面を押下したことを検出し、押下されたパネル面の座標位置の情報を含む操作情報を生成する。この操作情報には、操作部5で操作された各種ボタンを識別する情報も含まれる。そして、操作情報は、インタフェース22を介して入力部14に入力される。制御部20は、スクリーン9に提示された映像と、ユーザ10の視点位置に応じて処理をした映像データを映像提示部7に送信する。
入力部14に供給された各種のデータは、撮影場所(撮影領域)を検出する視線検出部15と、ユーザ10の視点位置を検出する視点位置検出部16に供給される。
視線検出部15は、視線カメラ3a,3bから得られたデータに基づいて、ユーザ10がスクリーン9に投影された映像を撮影する場所を検出する。
視点位置検出部16は、視点位置カメラ4a,4bから得られたデータに基づいて、スクリーン9に対するユーザ10の場所(視点位置)を検出する。
視点位置映像演算部17は、所定の演算処理を行って視点位置からディスプレイパネルを通して見た映像を求める。
視点位置映像演算部17で求められた視点位置の映像は、ユーザ10がタッチパネル6で指示した位置を検出する指示位置検出部18に供給される。指示位置検出部18で検出された指示位置は、出力部19を介して送信インタフェース23で所定のフォーマットに変換される。その後、スクリーン9には、指示位置に対応する映像として、例えばズーム映像が表示される。
また、制御部20は、入力部14に入力される映像のうち、ユーザ10の視点位置に基づいて映像を抽出する範囲を求める。そして、視線検出部15が検出したユーザ10の視線方向の映像を抽出して、映像提示部7に供給する。そして、制御部20は、透過ディスプレイパネル12の透過状態と不透過状態を切り替える指示命令を透過制御部11に供給する。そして、透過ディスプレイパネル12が透過状態である場合に、透過ディスプレイパネル12の画枠に対応して抽出した範囲の映像を映像提示部7に供給する。
映像提示部7が提示する映像は、不透過状態の透過ディスプレイパネル12に提示される。そして、制御部20が透過ディスプレイパネル12を介してスクリーン9に提示された映像を抽出するのは、透過ディスプレイパネル12が透過状態である場合に限られる。透過ディスプレイパネル12の透過状態と不透過状態を切り替え制御する透過制御部11は、透過状態切替えボタン5d、又は、透過ディスプレイパネル12に表示される不図示のユーザ・インタフェースによって制御される。このユーザ・インタフェースには、例えば、アイコン、選択メニューが含まれる。
映像提示部7がスクリーン9に映像を投影するときは、透過制御部11が透過ディスプレイパネル12を不透過に切り替える。映像提示部7が映像を提示する動作と、透過制御部11が不透過にする動作は連動する。つまり、ユーザ10が映像を取得する前は、透過ディスプレイパネル12が透過状態である。しかし、ユーザ10が映像取得ボタン5cを押すと、制御部20によって透過ディスプレイパネル12が不透過状態に切り替わり、映像を取得できる。映像提示部7の投影が終わると、透過制御部11は透過ディスプレイパネル12を透過にする。
図3は、透過ディスプレイ装置2を用いてスクリーン9に投影された映像を見る場合の例である。
ユーザ10は、例えば、透過ディスプレイ装置2を手に持ち、透過状態の透過ディスプレイパネル12を介してスクリーン9に投影された映像を見る。このとき、ユーザ10が見る映像は、スクリーン9に投影された映像のうち、領域31に該当する映像である。
本実施の形態例に係る透過ディスプレイ装置2を用いると、透過ディスプレイパネル12の画枠内に目的の映像が得られる一方、スクリーン9に投影された映像の画質が劣化したり、提示時間の遅延が生じたりすることはない。また、ユーザ10の視野角内に透過ディスプレイパネル12を配置した状態で、透過ディスプレイパネル12の画枠外に見える情景等を取得する要求がある。このとき、ユーザ10の視点位置から見たときの透過ディスプレイパネル12に提示された映像に対する視野角は、同一視点位置から表示面を介して見たときの被写体に対する視野角より小さい。そして、ユーザ10の視野角が制限されないため、ユーザ10の周辺視野を用いて周囲の情景を見ることが容易である。このため、ユーザ10は、スクリーン9に投影された映像からズーム表示したい部分映像を自然な動作で探すことができる。
ところで、実像と虚像では、人間の眼による見え方が異なる。
図4は、実像と虚像の見え方の例である。
ここでは、物体41とユーザ10の中間に凸レンズ42と凹レンズ45を置いた場合に、物体41はどのように見えるかについて説明する。
図4(a)は、凸レンズ42を用いた場合の光線の例である。
ユーザ10は、凸レンズ42を介して物体41を見ると、物体41の実像43が見える。実像43は、凸レンズ42のユーザ側に見える像である。本実施の形態例に係る透過ディスプレイパネル12は、実像光学系である。
図4(b)は、凹レンズを用いた場合の光線の例である。
ユーザ10は、凹レンズ45を介して物体41を見ると、物体41の虚像44が見える。虚像44は、凹レンズ45の物体側に見える像である。従来のヘッド・マウント・ディスプレイは、このような虚像光学系を用いている。
図5は、透過ディスプレイ装置2に提示された映像の一部をズームして透過ディスプレイパネル12に提示する例である。
図5(a)は、透過ディスプレイパネル12に提示される映像の例である。
ユーザ10の視点位置とスクリーン9の距離をK1とし、ユーザ10の視点位置と透過ディスプレイ装置2の距離をK2とする。スクリーン9に正対するユーザ10の視野角αの範囲内に透過ディスプレイ装置2の外枠を一致させると、スクリーン9に提示された映像のうち、画角αの範囲内の映像が透過ディスプレイパネル12に提示される。
図5(b)は、図5(a)の場合に比べて透過ディスプレイ装置2をユーザ10に近づけた場合に透過ディスプレイパネル12に提示される映像の例である。
このとき、ユーザ10の視点位置と透過ディスプレイ装置2の距離を上述した距離K2より短いK3とする。スクリーン9とユーザ10との距離は、図5(a)の場合と同じK1である。そして、スクリーン9に提示された映像と同じ画角αの映像2bは、図5(a)の場合に提示される映像2aに比べて小さく提示される。
ユーザ10は、提示された映像の一部に興味が引かれると、透過ディスプレイ装置2を顔に近づけて詳細に映像を見ようとする動作を行うと考えられる。このため、ユーザ10が透過ディスプレイパネル12に提示された映像の一部を指定したり、透過ディスプレイパネル12に顔を近づけたりする動作を行うと、例えば、映像2cのように映像の一部(本例では花)がズームされることが望ましい。このため、本実施の形態例では、ユーザ10が顔を透過ディスプレイ装置2に近づけた場合や映像の一部を指定した場合に、透過ディスプレイパネル12に提示する映像のズーム率を変える処理を行う。この処理によって、ユーザ10は、透過ディスプレイ装置2を直感的に使用できる。
映像のズーム率を変える処理において、ユーザ10が透過ディスプレイ装置2に顔を近づけたときに、スクリーン9に提示された映像と透過ディスプレイ装置2の画角が同じであれば、ユーザ10の視点移動を検出する操作を行う処理が必要である。また、ユーザ10が透過ディスプレイ装置2に顔を近づけた部分の映像をズームするためには、ユーザ10の動作を検出する処理が必要である。
図6は、透過ディスプレイパネル12に提示された映像の一部をズームする例である。
図6(a)は、ユーザ10が映像取得ボタン5cを押下する例である。
このとき、透過ディスプレイパネル12は透過状態であり、ユーザ10は、透過ディスプレイパネル12を透過したスクリーン9の映像を視聴できる。
図6(b)は、提示映像の例である。
このとき、透過ディスプレイパネル12は不透過状態である。透過ディスプレイパネル12には、映像提示部7によってスクリーン9に提示された映像を取り込んだ映像が提示される。
図6(c)は、ユーザ10がズームボタン5bを押下する例である。
ユーザ10がズームを指定する箇所は、タッチパネル6によって検出される。その後、ズームボタン5bを押下することによって指定した箇所の映像がズームされる。
図6(d)は、ズームされた提示映像の例である。
ユーザ10は、透過ディスプレイパネル12に提示されていたズーム前の映像について、指定した位置におけるズーム映像を詳細に見ることができる。
図7は、ユーザ10が視点移動しながら透過ディスプレイパネル12に提示された映像の一部をズームする例である。図7では、ユーザ10の視点位置を示すため、
図7(a)は、ユーザ10が映像取得ボタン5cを押下する例である。
このとき、透過ディスプレイパネル12は透過状態であり、スクリーン9の映像が透過ディスプレイパネル12に透過されて表示される。
図7(b)は、提示映像の例である。
このとき、透過ディスプレイパネル12は不透過状態である。ユーザ10は、透過ディスプレイパネル12を透過したスクリーン9の映像を視聴できる。
図7(c)は、ユーザ10が視点移動ボタン5aを押下しながら視点を移動する例である。ここでは、ユーザ10が左よりの映像に注目することを想定する。
このとき、ユーザ10が視点移動ボタン5aを押下しながら自身の顔に透過ディスプレイ装置2を近づけると、移動後のユーザ10の視点位置が計算される。そして、ユーザ10がズームボタン5bを押下すると、ユーザ10が顔を近づけた位置の映像(図7(c)の破線部)がズームして透過ディスプレイパネル12に提示される。
図7(d)は、ズームされた提示映像の例である。
ユーザ10は、透過ディスプレイパネル12の正面から左側に移動すると、透過ディスプレイパネル12に提示されていたズーム前の映像について、視点移動した位置におけるズーム映像を詳細に見ることができる。
図8は、ユーザ10がタッチパネル6を押した箇所に応じて映像を提示する処理の例である。制御部20は、タッチパネル6に近接される物体の位置を検出する。本実施の形態例では、2台の視点位置カメラ4a,4bが撮影した映像によって、ユーザ10の視点位置を検出する。ただし、2台の視点位置カメラ4a,4bの間隔は任意に設定でき、既知であるとする。
初期状態として、透過制御部11は透過ディスプレイパネル12を透過状態とする(ステップS1)。透過状態であれば、ユーザ10が透過部分からスクリーン9に提示された映像を見ることができる。ユーザ10は透過ディスプレイ装置2を自由に動かし、スクリーン9上の詳細に見たい物体がある場所で映像取得ボタン5cを押す。このとき、制御部20は、映像取得ボタン5cが押下操作されて生じる映像取得命令を受け取る(ステップS2)。
次に、視点位置検出部17は、視点位置カメラ4a,4bから得られたデータに基づいて、ユーザ10の視点位置を検出する(ステップS3)。視点位置検出部17は、視点位置カメラ4a,4bが撮影したユーザ10の顔の映像から、既存の顔認識の技術を用いて瞳の位置を検出することができる。その視点位置カメラ4a,4bで撮影したユーザ10の映像に含まれる瞳の位置を用いると瞳(視点)の3次元的な座標を求めることができる。また、視点位置カメラ4a,4bを用いない場合でも測距装置、赤外線センサ等を用いたり、ディスプレイの中心を通る軸上に視点を仮想的に置いたりすることでも代用できる。
そして、ユーザ10の視点位置を通して見える映像を取得するため、映像受信インタフェース21と、映像送信インタフェース23からスクリーン9に投影される映像を取得する(ステップS4)。
もし、スクリーン9に提示される映像の元データを受信できるならば、以後はこの元データを用いてもよい。映像の元データであれば、スクリーン9に提示された映像を撮影する場合に比べて綺麗な映像として処理できる。映像の元データを受信できないのであれば、視線カメラ3a,3bの映像を用いて処理を行う。そして、スクリーン9に提示された映像を受信できるのであれば、その受信した映像と視線カメラ3a,3bで撮影した映像のマッチングを行う。
映像のマッチング処理は、例えば、以下に示す2種類の方法のうち、いずれかの方法で行われる。
(1)視線カメラ3a,3bの焦点が合う位置から、視線カメラ3a,3bとスクリーン9の距離を求めてズーム率を大まかに計算し、その後ブロックマッチングを行う方法。
(2)ズーム率不定のまま相関を用いて検出する方法(An FFT-BasedTechnique for Translation,Rotation,andScale-Invariant Image Registration[IEEE1996])。
そして、視線検出部15は、スクリーン9に投影された映像が映像受信インタフェース21を介してダウンロードされた映像に含まれる映像であるかを検索するかどうかの判断を行う(ステップS5)。スクリーン9に投影される映像を検索する場合、視線カメラ3a,3bが撮影した映像を比較して、視線カメラ3a,3bで撮影された映像のマッチングを取る(ステップS6)。
このステップS5,S6では、スクリーン9に投影された映像を、映像受信インタフェース21を介してダウンロードし、利用する処理を行う。この処理では、視線カメラ3a,3bが撮影した映像と、ダウンロードした映像をマッチングし、撮影した映像がダウンロードした映像に含まれるかどうかを確認している。通常、スクリーン9に提示された映像を直接ダウンロードして利用すると、透過ディスプレイパネル12に解像度が高い映像を提示できる。ただし、映像受信インタフェース21を介してダウンロードした映像に撮影した映像が含まれないときは、以降のステップの処理に移る。
そして、スクリーン9に投影された映像を視線カメラ3a,3bが撮影した映像から、ユーザ10の視点位置の視点変換映像を作成する(ステップS7)。
視点変換映像とは、ユーザ10が透過ディスプレイ装置2を介して透過される映像を、ユーザ10がスクリーン9を正視した場合に見える映像、すなわち、ユーザ10がスクリーン9を真正面から見た場合の映像に変換したものである。例えば、ユーザ10がスクリーン9に対して斜め方向から見た場合、透過ディスプレイ装置2で見ることができる映像は正視していないので角度がついてしまい、スクリーン9に投影された映像と形状が異なる。このような形状の変形を補正した映像を生成する処理を「視点変換」という。また、視点変換処理によって作成された映像を「視点変換映像」という。ユーザ10が取得した映像を再度スクリーン9に投影し、この投影された映像をユーザ10が再度取得すると、取得した映像の劣化が激しくなる。このため、映像処理装置25の内部でユーザ10の視点位置における視点変換映像を作成すれば、映像の劣化を抑えることができる。ただし、スクリーン9に提示されている映像をそのまま使える場合は、視点変換映像を作成しなくてもよい。
視点位置映像演算部17は、視点位置検出部16が検出したユーザ10の視点位置に応じて、視点変換映像を作成する。平面映像であれば、アフィン変換を用いて視点を変換することが可能である。2台以上の視線カメラ3a,3bの映像を用いれば、ステレオ視によるマッチングなどで3次元的な視点による映像を再構成できる。
一方、スクリーン9に投影される映像を検索しない場合、視線カメラ3a,3bが撮影した映像を視点変換して、視点変換映像を作成する(ステップS8)。
ステップS7又はステップS8の処理の後、透過制御部11は、透過ディスプレイパネル12を不透過にする。そして、映像提示部7を用いて視点変換映像を透過ディスプレイパネル12に提示する(ステップS9)。このとき、透過ディスプレイパネル12には、ユーザ10が見る映像が提示される。
図9は、タッチパネル6を用いて表示された映像の位置を指示する処理の例である。
初期状態として、透過制御部11は、透過ディスプレイパネル12を透過状態とする(ステップS11)。透過状態であれば、ユーザ10が透過部分からスクリーン9に投影された映像を見ることができる。ユーザ10は透過ディスプレイ装置2を自由に動かし、スクリーン9上に詳細に見たい物体がある場所でタッチパネル6を押す。このとき、制御部20は、タッチパネル6にユーザ10の指が接触した指示位置の情報と、映像取得命令をタッチパネル6から受取る(ステップS12)。
次に、視点位置検出部17は、視点位置カメラ4a,4bから得られたデータに基づいて、ユーザ10の視点位置を検出する(ステップS13)。視点位置検出部17は、視点位置カメラ4a,4bが撮影したユーザ10の顔の映像から、既存の顔認識の技術を用いて瞳の位置を検出することができる。このため、その視点位置カメラ4a,4bが撮影したユーザ10の瞳の位置を用いることで、瞳(視点)の3次元的な座標を求めることができる。また、視点位置カメラ4a,4bを用いない場合でも測距装置、赤外線センサ等を用いたり、ディスプレイの中心を通る軸上に視点を仮想的に置いたりしてもよい。
そして、ユーザ10の視点位置を通して見える映像を取得するため、映像受信インタフェース21と、映像送信インタフェース23からスクリーン9に投影される映像を取得する(ステップS14)。
もし、スクリーン9に投影される映像データを受信できるならば以後はこの映像を用いて、より綺麗な映像で処理する。受信できないのであれば、視線カメラ3a,3bの映像を用いて処理を行う。スクリーン9に投影される映像を受信できるのであれば、その受信した映像と視線カメラ3a,3bで撮影した映像のマッチングを行う。
そして、視線検出部15は、スクリーン9に投影された映像が映像受信インタフェース21を介してダウンロードされた映像に含まれる映像であるかを検索するかどうかの判断を行う(ステップS15)。スクリーン9に投影される映像を検索する場合、視線カメラ3a,3bが撮影した映像を比較して、視線カメラ3a,3bで撮影された映像のマッチングを取る(ステップS16)。
そして、スクリーン9に投影された映像を視線カメラ3a,3bが撮影した映像から、ユーザの視点位置の視点変換映像を作成する(ステップS17)。このとき、視点位置カメラ4a,4bで得たユーザ10の視点位置に応じて、視点変換映像を作成する。平面映像であれば、アフィン変換を用いて視点を変換することが可能である。2台以上の視線カメラ3a,3bの映像を用いれば、ステレオマッチングなどで3次元的な視点による映像を再構成できる。
一方、スクリーン9に投影される映像を検索しない場合、視線カメラ3a,3bの映像を視点変換して、視点変換映像を作成する(ステップS18)。
ステップS17又はステップS18の処理の後、指示位置検出部18は、作成した視点変換映像と、タッチパネル6の座標を比較する。そして、ユーザ10によって押されたタッチパネル6の位置を計算する(ステップS19)。作成した視点変換映像とタッチパネル6の位置のマッチングを取ることで、映像のどの部分がユーザ10によって指示されたのかを視点位置検出部18は検出できる。
次に、ステップS19の処理の後、透過制御部11は、透過ディスプレイパネル12を不透過にする。そして、映像提示部7で作成した視点変換映像を透過ディスプレイパネル12に提示する(ステップS20)。このとき、透過ディスプレイパネル12には、ユーザ10が見る映像が提示される。
例えば、ユーザ10が指示した透過ディスプレイパネル12の上に文字を表示し、その文字を中心として映像をズームする処理が考えられる。このようにユーザ10の動作に応じて映像を提示する処理はユーザインタフェース機能として予め設定されている。このとき、作成した視点変換映像から連続して映像をズームすれば、ユーザ10は直感的に分かりやすい。
また、スクリーン9に対する透過ディスプレイ装置2の位置情報が完全に連携する。このため、ユーザ10の視点で指示したタッチパネル6の位置から、スクリーン9に投影された画面の位置情報を計算し、この画面に投影される映像に反映する。このため、複数人が同じスクリーン9を見ながら、どのような情報が提示されているかを共有して理解できる。
次に、ステレオ視を用いて立体像を作成する処理の例について図10〜図12を参照して説明する。この処理は、ユーザ10の視点位置と物体との距離を測るために行われる。
図10と図11は、視線カメラ3a,3bで実世界に配置された3つの物体46a〜46cを撮影する場合におけるユーザ10の視点移動の例を示す図である。この図は、ディスプレイ装置2とスクリーン9を上方から見たものである。
図10は、視点位置P0に位置する視線カメラ3a,3bで3つの物体46a〜46cを撮影する例について示す。
物体46cの3次元空間における座標位置は、S0(x,y,z)で示される。また、視線カメラ3a,3bの間の距離は、カメラ間距離Lとして示され、視線カメラ3a,3bから物体46cまでの距離は、被写体距離dとして示される。そして、カメラ間距離Lで示される線分の中点の垂線上に物体46aの中心が位置するよう、視線カメラ3a,3bが物体46a〜46cに向けられている状態を視点位置P0とする。
以下、新しい視点位置P3にユーザ10の視点が移動した場合について以下に考察する。なお、視点位置P3における視線カメラ3bについては説明を簡略化するため記載を省略する。
図11(a)は、視点位置P0における視線カメラ3aが撮影した映像47aを処理する例である。視線検出部15(図2参照)は、映像47aの左右を反転した映像47′aを作成する。
図11(b)は、視点位置P3における視線カメラ3aが撮影した映像47bを処理する例である。視線検出部15は、映像47aの左右を反転した映像47′bを作成する。
図11(c)は、視点位置P0における視線カメラ3bが撮影した映像47cを処理する例である。視線検出部15は、映像47aの左右を反転した映像47′cを作成する。
図12は、視点移動による処理の例を示すフローチャートである。
ここでは、ユーザ10が物体46a〜46cに正対した状態から左方向の視点位置P3に移動した場合における、視線カメラ3a,3bによって撮影される映像について図11と図12を参照しながら説明する。
始めに、視線検出部15は、ブロックマッチングで、点S′1(x1,x2)に対応する点S′2(x1,x2)を求める(ステップS31)。視差で隠れる部分は、複数のカメラのうち、物体が映っているカメラを用いる。点S′1,S′2は、点S1と点S2を、それぞれ左右反転した座標に位置する。
そして、点S′1,S′2の角度θx1,θx2を求める(ステップS32)。角度θx1,θx2は、図11より点S1,S2の角度に等しいことが示される。ここでカメラ画角をφ、カメラの画素数を(width,height)、中心座標をO1(ox1,oy1)、O2(ox2,oy2)とする。角度θx1,θx2は、次式(1),(2)で求められる。
Figure 0004725595
次に、角度θx1,θx2と視線カメラ3a,3bの位置から点S0(x,y,z)までの被写体距離dを求める。被写体距離dは、次式(3)で求められる。
Figure 0004725595
Y軸方向も同様に角度θy1,θy2が求まるので、これで点S0の三次元の位置(x,y,z)が求まる(ステップS33)。三次元の位置(x,y,z)は、次式(4)で求められる。
Figure 0004725595
さらに、新しい視点位置P3の座標(p3x,p3y,p3z)から、角度θx3,θy3が求まる。角度θx3,θy3は、次式(5)で求められる。
Figure 0004725595
このため、カメラ画角φより、点S3,S′3の座標が求まる(ステップS34)。点S3,S′3の座標は、次式(6),(7)で求められる。
Figure 0004725595
次に、ユーザ10が視点位置を移動した場合に、透過ディスプレイ装置2を用いて取得した映像に対してズーム、シフトなどの操作を行う処理について図13と図14を参照して説明する。ここで、ズーム処理とは、透過ディスプレイ装置2で取得した映像を拡大するものである。一方、シフト処理とは、ユーザ10が見ようとする対象物を移動させるものである。この処理は、ユーザ10が視点を移動した際に起こる直感的な動作を反映させるものである。
図13は、ユーザ10が視点を移動する例であり、ディスプレイ装置2をスクリーン9の上方から見た図である。
映像を取得した時のユーザ10の視点、もしくは視点移動ボタン5aを押した時のユーザ10の視点を基準視点位置P’(Xp’,Yp’,Zp’)とする。そして、ユーザ10が透過ディスプレイ装置2の中心点Oを見ていたとき、その視線の先にあるスクリーン9の座標点Q’(Xq’,Yq’,Zq’)とする。
視点を移動させた後の視点をPとする。視点位置Pから座標点Q’を見たとき、透過ディスプレイパネル13上の交点をR(Xr’,Yr’,0)とする。中心点Oと交点Rの差分から映像の移動すべき量(以下、「シフト量」ともいう。)(Xr’,Yr’)が求まる。
このとき、座標点Q’と基準視点位置P’のZ方向の距離(Zp’−Zq’)と、座標点Q’と視点位置PのZ方向の距離(Zp−Zq’)から、ズーム率(Zp’−Zq’)/(Zp−Zq’)が求まる。以上から、シフト量とズーム率が計算できる。
また、シフト量、ズーム率にあらかじめ決められた視点移動パラメータ(例えば1.5や2.0など)をかけることで、ユーザ10の動作を強調することも可能である。
ここで、視点移動パラメータについて説明する。
ユーザ10が実際に移動した距離は、基準視点P′から視点Pまでの距離として求まる。さらに、ユーザ10が実際に移動していない位置に移動したと仮想する場合に、この位置を仮想視点P2として定める。仮想視点P2は、実際に移動した距離(基準視点P′から視点Pまでの距離)に対して視点移動パラメータを設定することで求まる。例えば、視点移動パラメータの値を「2」とすれば、この値を実際に移動した距離に乗じることによって、仮想視点P2が求まる。
さらに、「ユーザ10の動作を強調する」ことについて説明する。まず、ユーザ10が自身の顔を透過ディスプレイ装置2に近づけたり、透過ディスプレイ装置2を左右に動かしたりすることを想定する。すると、ユーザ10が透過ディスプレイパネル12を介して見る映像の画枠は、スクリーン9に提示された映像の周辺部と一致する。このとき、ユーザ10は、透過ディスプレイパネル12に提示される映像の一部をよりズームして見ようとする。従来であれば、ユーザ10が透過ディスプレイパネル12に顔を近づけると、スクリーン9の周りの情景も映り込むため、見たい映像が小さくなり(図5(b)を参照)、非常に使いにくい。
このため、映像処理システム1は、ユーザ10が透過ディスプレイパネル12に顔を近づけたり、透過ディスプレイ装置2を左に移動させたりする動作を検出すると、「ズーム率を上げて映像を提示する」、「左方向の映像を提示する」動作が行われたと解釈する。そして、映像処理システム1は、ユーザ10が視点移動した距離を単位移動距離とした場合に、この単位移動距離に2倍又は3倍のパラメータを乗じることで、視点移動の距離を大きくする。ズーム映像や、左方向の映像を透過ディスプレイパネル12に提示する。そして、透過ディスプレイパネル12に映像を提示する処理を行うこととなる。
図14は、視点移動による処理の例を示すフローチャートである。
始めに、ユーザ10によって映像取得ボタン5cが押下されたことを検出する(ステップS41)。このとき、透過ディスプレイパネル12には視点変換映像が表示される(ステップS42)。
制御部20は、視点移動ボタン5aが押下されているか否かを判断する(ステップS43)。視点移動ボタン5aが押下されていないと判断した場合、ステップS43の判断を繰り返す。
一方、視点移動ボタン5aが押下されていると判断した場合、制御部20は、ユーザ10の視点が変化したか否かを判断する(ステップS44)。ユーザ10の視点が変化していないと判断した場合、ステップS44の判断を繰り返す。
一方、ユーザ10の視点が変化していると判断した場合、視点位置検出部16は、現在の処理開始時点におけるユーザ10の視点位置を取得する(ステップS45)。そして、視点位置検出部16は、映像取得ボタン5cが押された時(現在)の視点位置と、処理開始時点の視点位置を比較して、指定されたパラメータに応じて仮想視点位置を計算する(ステップS46)。
視点位置映像演算部17は、求められた仮想視点位置に応じて視点映像を計算する(ステップS47)。そして、透過制御部11は、透過ディスプレイパネル12を不透過にする。そして、映像提示部7で作成した視点変換映像を透過ディスプレイパネル12に提示する(ステップS48)。このとき、透過ディスプレイパネル12に提示される映像が、ユーザ10が見ることのできる映像となる。
次に、視線カメラ3a,3bで撮影した映像からユーザ10の視線を検出する処理について、図15〜図17を参照して説明する。
図15は、電子透かしを用いた視線検出の例である。
図15(a)は、スクリーン9に提示される原映像の例である。
図15(b)は、電子透かしの例である。
電子透かしは一意に設定される識別符号(ID:Identification)として、x座標軸に沿ってスクリーン9に挿入される。提示される原映像の中心をゼロとして、原映像の横方向に沿って所定の間隔で電子透かしが設定される。
図15(c)は、スクリーン9に挿入される電子透かしの例である。
ユーザ10がスクリーン9に提示される映像を見ても、電子透かしを見ることはできない。しかし、制御部20は、スクリーン9に挿入された電子透かしを認識し、視線方向を算出することができる。
図16は、視線カメラ3a,3bで撮影した映像からスクリーン9に提示される映像に挿入された識別符号を検出する例である。
視線カメラ3aで撮影した映像51aには、電子透かしとして識別符号90,100,110が挿入される。視線カメラ3bで撮影した映像51bには、電子透かしとして識別符号100,110,120が挿入される。ここで、識別符号100に対して座標P1、識別符号110に対して座標P2を設定する。各識別符号の間隔はkである。そして、視線カメラ3a,3bの横方向の画素数は、変数widthで表される。また、視線カメラ3a,3bの縦方向の画素数は、変数heightで表される。
図17は、スクリーン9と視線カメラ3aの位置関係を計算する例である。
まず、スクリーン9のどの場所にどの識別符号が挿入されているかは、映像処理装置20に予め記録されている。このため、電子透かしの座標間距離Lは既知である。このため、次式(8)より角度θが求まる。
Figure 0004725595
視線カメラ3a,3bの画角Φは、撮影パラメータであり、撮影時に既知である。そして、視線カメラ3aについて、次式(9)より、点P2の角度ψが求まる。
Figure 0004725595
点P1、点P2、点C1と角度θ,ψより、視線カメラ3aの位置が求まる。点C1のX座標C1x、Z座標C1zは、次式(10)の連立方程式より求まる。
Figure 0004725595
上述した手順と同様にして、視線カメラ3bについての座標も求まる。
この結果、視点位置カメラ4a,4bで撮影した映像によって、透過ディスプレイ装置2に対するユーザ10の視点の相対位置が分かる。このため、スクリーン9に対するユーザ10の視点の位置が分かる。さらに、ユーザ10の視点位置と透過ディスプレイ装置2の中心を結ぶ直線を、ユーザ10の視線方向である認識できる。
以上説明した本実施の形態例に係る映像処理装置によれば、スクリーン9に投影された映像からユーザ10の手元に用意した透過ディスプレイ装置2に映像を抽出して表示する際に有用である。透過ディスプレイ装置2を用いることで、従来のヘッド・マウント・ディスプレイとは異なりユーザの視野角が制限されないため、ユーザ10は広い視野角で映像を見ることができる。このとき、注目する映像だけでなく、透過ディスプレイ装置2の画枠外である周辺視野も用いて、直感的にスクリーン9上の映像に関する情報を取得できる。また、取得する映像は、遅延や画質の劣化がなく、奥行きがスクリーン9に投影された映像の位置と一致する。また、透過ディスプレイパネル12を通して見る像が実世界の情景である場合も、直感的に映像を取得することが可能であり、スクリーン9に投影された映像を取得する場合と同様の効果を奏する。
また、映像を取得した後は、ユーザ10の手元に取得した映像から特定の部分映像を選んでズーム表示できる。そして、ユーザ10は、スクリーン9に投影された映像や実世界の情景から所望の箇所を取得しやすくなり、映像を自然に見ることができるという効果がある。また、ユーザ10は、所望の映像を取得し、目的の映像を観察するという動作が同時に行える。また、透過ディスプレイ装置2は実像光学系を用いるため、ユーザ10の眼に負担がかからない。
ところで、スクリーン9に投影された映像を複数人で視聴しながら、手元に用意した透過ディスプレイ装置2で必要な情報を取得する場合がある。例えば、航空写真の地図と、この航空写真の地図に対応する記号地図を切り替えてスクリーン9に表示する場合がある。このとき、複数人がスクリーン9に投影された航空写真を見ていても、各ユーザは手元のディスプレイ装置2を使用して、航空写真に位相を合わせた記号地図を瞬時に取得できる。
また、スクリーン9に投影された映像を複数の人間が見る場合、透過ディスプレイ装置2に表示される映像に、旗やマークなどの標識を重ねて表示してもよい。このとき、ユーザ10によって指示され、指示位置検出部18によって検出された位置を、タッチパネル6に近接された物体の位置に応じて標識を表示する。透過ディスプレイ装置2で加工した映像は、スクリーン9に投影された映像に重ねて表示させてもよい。このため、あるユーザが加工した映像を、他のユーザが同時に見ることができる。
また、ユーザは、透過ディスプレイパネル12の表面を直接タッチパネルで指示することによって、透過ディスプレイパネル12の画枠内から見える実世界やスクリーン9に投影された映像の所望の場所を指示できる。
なお、透過ディスプレイ装置2で取り込んだ映像を、送信インタフェース23を介して他のディスプレイ装置に表示することも可能である。
図18は、2つのディスプレイ装置を使って映像を取得する例である。
ユーザ10は、透過ディスプレイ装置2を介して被写体61の映像を取得する。このとき、ユーザ10の指62によって表示された被写体61を指示すると、例えば、ユーザ10の側面に設置された他のディスプレイ装置63に指示された被写体61の映像が表示される。
このような装置の応用として、例えば、電車に適用することができる。電車を運転中であるときに運転手が指差確認をする際、上述した実施の形態例のように正面の窓を不透過にすると非常に危険である。このため、別のディスプレイ装置に映像を表示することで安全に運転手が見たい映像をズームして表示することができる。
また、上述した実施の形態例において、映像提示部7として小型のプロジェクタ装置を用いているが、液晶などで半透明状態を作り出すことも可能である。その際には予め偏光を与えておく必要がある。具体的には大画面に片方の偏光された映像を提示しておき、液晶を制御して、偏光率を変化させる。このように透過ディスプレイ装置2を設計することで、半透明状態の透過ディスプレイパネル12に映像を提示できる。このため、提示された映像と透過する映像を重ね合わせた状態で提示することも可能となる。
また、上述した実施の形態例における一連の処理は、ハードウェアにより実行することができるが、ソフトウェアにより実行させることもできる。一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムを、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで各種の機能を実行することが可能な例えば汎用のパーソナルコンピュータなどに所望のソフトウェアを構成するプログラムをインストールして実行させる。
また、上述した実施の形態例の機能を実現するソフトウェアのプログラムコードを記録した記録媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPU等の制御装置)が記録媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。
この場合のプログラムコードを供給するための記録媒体としては、例えば、フロッピディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード、ROMなどを用いることができる。
また、コンピュータが読み出したプログラムコードを実行することにより、上述した実施の形態例の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOSなどが実際の処理の一部又は全部を行い、その処理によって上述した実施の形態例の機能が実現される場合も含まれる。
また、本明細書において、ソフトウェアを構成するプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
さらに、本発明は上述した実施の形態例に限られるものではなく、本発明の要旨を逸脱することなくその他種々の構成を取り得ることは勿論である。
本発明の一実施の形態例における映像処理装置の外部構成例を示す説明図である。 本発明の一実施の形態例における映像処理装置の内部構成例を示すブロック図である。 本発明の一実施の形態例におけるスクリーンに提示された映像を取得する例を示す説明図である。 実像と虚像の例を示す説明図である。 本発明の一実施の形態例におけるスクリーンに提示された映像の一部をズームして透過ディスプレイ装置に提示する例を示す説明図である。 本発明の一実施の形態例におけるスクリーンに提示された映像の一部をズームして透過ディスプレイ装置に提示する例を示す説明図である。 本発明の一実施の形態例における、ユーザが視点移動しながらスクリーンに提示された映像の一部をズームして透過ディスプレイ装置に提示する例を示す説明図である。 本発明の一実施の形態例における映像を取得する処理の例を示すフローチャートである。 本発明の一実施の形態例におけるタッチパネルによって指示された位置の映像を取得する処理の例を示すフローチャートである。 本発明の一実施の形態例におけるステレオ視を用いた物体の測距法の例を示す説明図である。 本発明の一実施の形態例におけるステレオ視を用いた物体の測距法の例を示す説明図である。 本発明の一実施の形態例におけるステレオ視を用いて立体像を作成する処理の例を示すフローチャートである。 本発明の一実施の形態例における視点移動の例を示す説明図である。 本発明の一実施の形態例における視点移動による処理の例を示すフローチャートである。 本発明の一実施の形態例における提示映像に電子透かしを挿入する例を示す説明図である。 本発明の一実施の形態例における視線カメラの映像に含まれる識別符号を検出する例を示す説明図である。 本発明の一実施の形態例におけるスクリーンと2つのカメラの位置関係の例を示す説明図である。 本発明の他の実施の形態例における他のディスプレイ装置に映像を提示する例を示す説明図である。
符号の説明
1…映像処理システム、2…透過ディスプレイ装置、3a,3b…視線カメラ、4a,4b…視点位置カメラ、5…操作部、6…タッチパネル、10…ユーザ、11…透過制御部、12…透過ディスプレイパネル、14…入力部、15…視線検出部、16…視点位置映像演算部、17…視点位置検出部、18…指示位置検出部、19…出力部、20…制御部、21…映像受信インタフェース、22…インタフェース、23…送信インタフェース、25…映像処理装置

Claims (8)

  1. 被写体を撮像する撮像装置で撮像された映像が入力され、又はスクリーンに投影される映像の元データ映像受信インタフェースを介して入力される入力部と、
    実像光学系である表示手段の表示面を透過状態又は不透過状態に切り替える透過制御部と、
    前記表示手段の表示面が不透過状態である場合に、前記表示面に映像を提示する映像提示部と、
    ユーザの視点位置を検出する視点検出部と、
    前記撮像装置によって撮影された映像から前記ユーザの視線方向を検出する視線検出部と、
    前記被写体が実世界の情景であって、前記実世界の情景を撮像した映像が前記入力部を介して入力する場合又は前記被写体がスクリーンに投影される映像であって、前記スクリーンを撮像した映像が前記入力部を介して入力する場合に、前記視点検出部によって検出された前記ユーザの視点位置、前記視線検出部によって検出された前記ユーザの視線方向、前記表示面から前記被写体までの距離、及び前記ユーザの視点の移動に基づいて、前記映像を当該ユーザの視点位置から前記表示手段の表示面を通して見たときの前記表示面の画枠に対応して抽出した範囲の映像を生成し、前記被写体がスクリーンに投影される映像であって、前記スクリーンに投影される映像の前記元データから検索された、前記入力部を介して入力する前記スクリーンを撮像した映像より、前記ユーザが前記スクリーンを真正面から見た場合の視点変換映像を生成する視点位置映像演算部と、
    前記ユーザの視点位置における前記表示手段の表示面に対して指示された位置を検出し、前記視点位置映像演算部が生成した映像から抽出した前記指示された位置の被写体の映像を前記スクリーンに表示させる指示位置検出部と、
    前記表示面が不透過状態であって、前記表示面に提示された映像を取得する指示を検出した場合に、前記視点位置映像演算部が生成した映像のズーム率を変えて前記映像提示部に供給する制御部と、を備える
    映像処理装置。
  2. 請求項1記載の映像処理装置において、
    前記制御部は、前記ユーザの視点位置から前記表示手段の表示面までの距離が変化した場合に、距離の変化に応じてズーム率を変える
    映像処理装置。
  3. 請求項2記載の映像処理装置において、
    前記ユーザの視点位置から見たときの前記表示手段の表示面に提示された映像に対する視野角は、同一視点位置から前記表示面を介して見たときの前記被写体に対する視野角より小さい
    映像処理装置。
  4. 請求項3記載の映像処理装置において、
    前記映像提示部から映像が提示される表示手段を備える
    映像処理装置。
  5. 請求項4記載の映像処理装置において、
    前記撮像装置は、前記表示手段の前記ユーザの視点位置と反対側の面に設定され、前記表示手段に応動して撮像方向が移動する
    映像処理装置。
  6. 被写体を撮像する撮像装置で撮像された映像が入力され、又はスクリーンに投影される映像の元データ映像受信インタフェースを介して入力されるステップと、
    実像光学系である表示手段の表示面を透過状態又は不透過状態に切り替えるステップと、
    表示手段の表示面が不透過状態である場合に、映像提示部が前記表示面に映像を提示するステップと、
    ユーザの視点位置を検出するステップと、
    前記撮像装置によって撮影された映像から前記ユーザの視線方向を検出するステップと、
    前記被写体が実世界の情景であって、前記実世界の情景を撮像した映像が前記入力部を介して入力する場合又は前記被写体がスクリーンに投影される映像であって、前記スクリーンを撮像した映像が前記入力部を介して入力する場合に、前記ユーザの視点位置、前記ユーザの視線方向、前記表示面から前記被写体までの距離、及び前記ユーザの視点の移動に基づいて、前記映を当該ユーザの視点位置から前記表示手段の表示面を通して見たときの前記表示面の画像枠に対応して抽出した範囲の映像を生成し、前記被写体がスクリーンに投影される映像であって、前記スクリーンに投影される映像の前記元データから検索された、前記入力部を介して入力する前記スクリーンを撮像した映像より、前記ユーザが前記スクリーンを真正面から見た場合の視点変換映像を生成するステップと、
    前記ユーザの視点位置における前記表示手段の表示面に対して指示された位置を検出し、前記生成された映像から抽出した前記指示された位置の被写体の映像を前記スクリーンに表示させるステップと、
    前記表示面が不透過状態であって、前記表示面に提示された映像を取得する指示を検出した場合に、生成された前記映像のズーム率を変えて前記映像提示部に供給するステップと、を含む
    映像処理方法。
  7. 被写体を撮像する撮像装置で撮像された映像が入力され、又はスクリーンに投影される映像の元データ映像受信インタフェースを介して入力されるステップと、
    実像光学系である表示手段の表示面を透過状態又は不透過状態に切り替えるステップと、
    表示手段の表示面が不透過状態である場合に、映像提示部が前記表示面に映像を提示するステップと、
    ユーザの視点位置を検出するステップと、
    前記撮像装置によって撮影された映像から前記ユーザの視線方向を検出するステップと、
    前記被写体が実世界の情景であって、前記実世界の情景を撮像した映像が前記入力部を介して入力する場合又は前記被写体がスクリーンに投影される映像であって、前記スクリーンを撮像した映像が前記入力部を介して入力する場合に、前記ユーザの視点位置、前記ユーザの視線方向、前記表示面から前記被写体までの距離、及び前記ユーザの視点の移動に基づいて、前記映像を当該ユーザの視点位置から前記表示手段の表示面を通して見たときの前記表示面の画枠に対応して抽出した範囲の映像を生成し、前記被写体がスクリーンに投影される映像であって、前記スクリーンに投影される映像の前記元データから検索された、前記入力部を介して入力する前記スクリーンを撮像した映像より、前記ユーザが前記スクリーンを真正面から見た場合の視点変換映像を生成するステップと、
    前記ユーザの視点位置における前記表示手段の表示面に対して指示された位置を検出し、前記生成された映像から抽出した前記指示された位置の被写体の映像を前記スクリーンに表示させるステップと、
    前記表示面が不透過状態であって、前記表示面に提示された映像を取得する指示を検出した場合に、生成された前記映像のズーム率を変えて前記映像提示部に供給するステップと、を含む
    処理をコンピュータに実行させるためのプログラム。
  8. 請求項7に記載のプログラムを格納した
    記録媒体。
JP2008114408A 2008-04-24 2008-04-24 映像処理装置、映像処理方法、プログラム及び記録媒体 Expired - Fee Related JP4725595B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2008114408A JP4725595B2 (ja) 2008-04-24 2008-04-24 映像処理装置、映像処理方法、プログラム及び記録媒体
EP20090156809 EP2112547A3 (en) 2008-04-24 2009-03-31 Image processing apparatus, image processing method, program, and recording medium
US12/418,884 US8441435B2 (en) 2008-04-24 2009-04-06 Image processing apparatus, image processing method, program, and recording medium
CN2009101369084A CN101566875B (zh) 2008-04-24 2009-04-24 图像处理装置和图像处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008114408A JP4725595B2 (ja) 2008-04-24 2008-04-24 映像処理装置、映像処理方法、プログラム及び記録媒体

Publications (2)

Publication Number Publication Date
JP2009267729A JP2009267729A (ja) 2009-11-12
JP4725595B2 true JP4725595B2 (ja) 2011-07-13

Family

ID=40902848

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008114408A Expired - Fee Related JP4725595B2 (ja) 2008-04-24 2008-04-24 映像処理装置、映像処理方法、プログラム及び記録媒体

Country Status (4)

Country Link
US (1) US8441435B2 (ja)
EP (1) EP2112547A3 (ja)
JP (1) JP4725595B2 (ja)
CN (1) CN101566875B (ja)

Families Citing this family (69)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010176170A (ja) * 2009-01-27 2010-08-12 Sony Ericsson Mobilecommunications Japan Inc 表示装置、表示制御方法および表示制御プログラム
CN101847075A (zh) * 2010-01-08 2010-09-29 宏碁股份有限公司 多屏幕电子装置及其影像显示方法
US8774267B2 (en) * 2010-07-07 2014-07-08 Spinella Ip Holdings, Inc. System and method for transmission, processing, and rendering of stereoscopic and multi-view images
US20120038663A1 (en) * 2010-08-12 2012-02-16 Harald Gustafsson Composition of a Digital Image for Display on a Transparent Screen
JP2012103116A (ja) * 2010-11-10 2012-05-31 Nippon Telegr & Teleph Corp <Ntt> カメラポーズ情報算出装置およびカメラポーズ情報算出プログラム
US9507416B2 (en) * 2011-02-22 2016-11-29 Robert Howard Kimball Providing a corrected view based on the position of a user with respect to a mobile platform
CN102859470B (zh) * 2011-03-15 2015-12-02 松下电器(美国)知识产权公司 对象控制装置、对象控制方法以及集成电路
CN103547985B (zh) * 2011-05-24 2016-08-24 三菱电机株式会社 设备控制装置以及操作受理方法
KR101449748B1 (ko) 2011-08-18 2014-10-13 엘지디스플레이 주식회사 입체영상 디스플레이장치 및 그 구동 방법
CN102508546B (zh) * 2011-10-31 2014-04-09 冠捷显示科技(厦门)有限公司 一种3d虚拟投影及虚拟触摸的用户交互界面及实现方法
US9223138B2 (en) 2011-12-23 2015-12-29 Microsoft Technology Licensing, Llc Pixel opacity for augmented reality
US9297996B2 (en) 2012-02-15 2016-03-29 Microsoft Technology Licensing, Llc Laser illumination scanning
US9779643B2 (en) 2012-02-15 2017-10-03 Microsoft Technology Licensing, Llc Imaging structure emitter configurations
US9368546B2 (en) 2012-02-15 2016-06-14 Microsoft Technology Licensing, Llc Imaging structure with embedded light sources
US9726887B2 (en) 2012-02-15 2017-08-08 Microsoft Technology Licensing, Llc Imaging structure color conversion
JP5924020B2 (ja) * 2012-02-16 2016-05-25 セイコーエプソン株式会社 プロジェクター、及び、プロジェクターの制御方法
US9578318B2 (en) 2012-03-14 2017-02-21 Microsoft Technology Licensing, Llc Imaging structure emitter calibration
US9691241B1 (en) * 2012-03-14 2017-06-27 Google Inc. Orientation of video based on the orientation of a display
US8988519B2 (en) * 2012-03-20 2015-03-24 Cisco Technology, Inc. Automatic magnification of data on display screen based on eye characteristics of user
US11068049B2 (en) 2012-03-23 2021-07-20 Microsoft Technology Licensing, Llc Light guide display and field of view
US10191515B2 (en) 2012-03-28 2019-01-29 Microsoft Technology Licensing, Llc Mobile device light guide display
US9558590B2 (en) 2012-03-28 2017-01-31 Microsoft Technology Licensing, Llc Augmented reality light guide display
CN103369212B (zh) * 2012-03-28 2018-06-05 联想(北京)有限公司 一种图像采集方法及设备
US9717981B2 (en) 2012-04-05 2017-08-01 Microsoft Technology Licensing, Llc Augmented reality and physical games
US10502876B2 (en) 2012-05-22 2019-12-10 Microsoft Technology Licensing, Llc Waveguide optics focus elements
EP2857939B1 (en) 2012-05-25 2018-08-29 National University Corporation Shizuoka University Pupil detection method, corneal reflex detection method, facial posture detection method, and pupil tracking method
US8989535B2 (en) 2012-06-04 2015-03-24 Microsoft Technology Licensing, Llc Multiple waveguide imaging structure
CN103677704B (zh) * 2012-09-20 2018-11-09 联想(北京)有限公司 显示装置和显示方法
US10192358B2 (en) 2012-12-20 2019-01-29 Microsoft Technology Licensing, Llc Auto-stereoscopic augmented reality display
JP6082272B2 (ja) * 2013-02-25 2017-02-15 東京エレクトロン株式会社 支援情報表示方法、基板処理装置の保守支援方法、支援情報表示制御装置、基板処理システム及びプログラム
EP2818948B1 (en) * 2013-06-27 2016-11-16 ABB Schweiz AG Method and data presenting device for assisting a remote user to provide instructions
JP2015014995A (ja) * 2013-07-08 2015-01-22 桑原 雅人 表示装置、表示方法、プログラム及び表示システム
CN103417176B (zh) * 2013-08-01 2015-02-18 深圳先进技术研究院 胶囊内窥镜及其自动调焦的方法
CN103499885B (zh) * 2013-09-30 2014-10-08 北京智谷睿拓技术服务有限公司 成像装置和方法
DE102013224962A1 (de) 2013-12-05 2015-06-11 Robert Bosch Gmbh Anordnung zum Erstellen eines Bildes einer Szene
JP6318596B2 (ja) * 2013-12-13 2018-05-09 セイコーエプソン株式会社 情報処理装置および情報処理装置の制御方法
EP2894508A1 (en) * 2013-12-31 2015-07-15 Thomson Licensing Method for displaying a content through either a head mounted display device or a display device, corresponding head mounted display device and computer program product
CN105183142B (zh) * 2014-06-13 2018-02-09 中国科学院光电研究院 一种利用空间位置装订的数字信息复现方法
US9304235B2 (en) 2014-07-30 2016-04-05 Microsoft Technology Licensing, Llc Microfabrication
US10592080B2 (en) 2014-07-31 2020-03-17 Microsoft Technology Licensing, Llc Assisted presentation of application windows
US10254942B2 (en) 2014-07-31 2019-04-09 Microsoft Technology Licensing, Llc Adaptive sizing and positioning of application windows
US10678412B2 (en) 2014-07-31 2020-06-09 Microsoft Technology Licensing, Llc Dynamic joint dividers for application windows
CN105573608A (zh) * 2014-10-11 2016-05-11 乐视致新电子科技(天津)有限公司 一种对人机交互中的操作状态进行显示的方法及装置
KR102309281B1 (ko) * 2014-11-07 2021-10-08 삼성전자주식회사 오브젝트를 표시하는 방향 기반 전자 장치 및 방법
CN104349155B (zh) * 2014-11-25 2017-02-01 深圳超多维光电子有限公司 模拟立体图像显示方法及显示设备
US10317677B2 (en) 2015-02-09 2019-06-11 Microsoft Technology Licensing, Llc Display system
US9423360B1 (en) 2015-02-09 2016-08-23 Microsoft Technology Licensing, Llc Optical components
US11086216B2 (en) 2015-02-09 2021-08-10 Microsoft Technology Licensing, Llc Generating electronic components
US9535253B2 (en) 2015-02-09 2017-01-03 Microsoft Technology Licensing, Llc Display system
US9372347B1 (en) 2015-02-09 2016-06-21 Microsoft Technology Licensing, Llc Display system
US9513480B2 (en) 2015-02-09 2016-12-06 Microsoft Technology Licensing, Llc Waveguide
US9827209B2 (en) 2015-02-09 2017-11-28 Microsoft Technology Licensing, Llc Display system
US9429692B1 (en) 2015-02-09 2016-08-30 Microsoft Technology Licensing, Llc Optical components
US10018844B2 (en) 2015-02-09 2018-07-10 Microsoft Technology Licensing, Llc Wearable image display system
KR102402048B1 (ko) * 2015-10-14 2022-05-26 삼성전자주식회사 전자 장치 및 그 제어 방법
US9703374B1 (en) * 2015-12-16 2017-07-11 Google, Inc. In-cell gaze tracking for near-eye display
KR20170095030A (ko) * 2016-02-12 2017-08-22 삼성전자주식회사 통신 시스템에서 vr 컨텐트 디스플레이를 지원하는 기법
CN105719586A (zh) * 2016-03-18 2016-06-29 京东方科技集团股份有限公司 透明显示方法和透明显示装置
CN109152954A (zh) * 2016-05-25 2019-01-04 株式会社光荣特库摩游戏 游戏装置及游戏控制方法
CN106162156B (zh) * 2016-07-26 2018-10-19 北京小鸟看看科技有限公司 一种虚拟现实系统及其视角调节方法和装置
US20180077345A1 (en) * 2016-09-12 2018-03-15 Canon Kabushiki Kaisha Predictive camera control system and method
JP2018054747A (ja) * 2016-09-27 2018-04-05 富士ゼロックス株式会社 画像表示装置、画像形成装置、及びプログラム
CN106488208B (zh) * 2017-01-03 2020-03-31 京东方科技集团股份有限公司 一种显示装置及显示方法
CN107357046B (zh) * 2017-05-26 2019-12-24 张家港康得新光电材料有限公司 2d模式与3d模式切换时间的检测方法与检测系统
WO2019138682A1 (ja) * 2018-01-09 2019-07-18 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
CN112424788A (zh) * 2019-06-17 2021-02-26 谷歌有限责任公司 使用三维眼睛注视矢量的车辆乘员参与
JP7343621B2 (ja) 2020-01-28 2023-09-12 マクセル株式会社 インターバル撮像装置
JP7442933B2 (ja) * 2020-03-20 2024-03-05 アルパイン株式会社 車両用画像処理装置
CN113759554B (zh) * 2021-09-13 2023-10-10 京东方科技集团股份有限公司 投影显示系统、方法及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000165738A (ja) * 1998-06-17 2000-06-16 Minolta Co Ltd 撮像装置
JP2005110162A (ja) * 2003-10-02 2005-04-21 Olympus Corp カメラ

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10191288A (ja) 1996-12-27 1998-07-21 Canon Inc 携帯用情報伝送装置および携帯用テレビジョン電話装置
JP4230487B2 (ja) 1997-10-07 2009-02-25 雅信 鯨田 Webページ連動型の複数連携型表示システム
US6154558A (en) * 1998-04-22 2000-11-28 Hsieh; Kuan-Hong Intention identification method
JP2000209425A (ja) * 1998-11-09 2000-07-28 Canon Inc 画像処理装置及び方法並びに記憶媒体
US6795209B1 (en) * 1999-10-14 2004-09-21 Eastman Kodak Company Method and apparatus for modifying a hard copy image digitally in accordance with instructions provided by consumer
JP2001346200A (ja) * 2000-06-02 2001-12-14 Fuji Heavy Ind Ltd 画像切出し/表示システム
US7324246B2 (en) * 2001-09-27 2008-01-29 Fujifilm Corporation Apparatus and method for image processing
US7426804B2 (en) * 2002-02-06 2008-09-23 Andersen Corporation Specialty display window
US6801642B2 (en) * 2002-06-26 2004-10-05 Motorola, Inc. Method and apparatus for limiting storage or transmission of visual information
JP4298407B2 (ja) * 2002-09-30 2009-07-22 キヤノン株式会社 映像合成装置及び映像合成方法
DE10251933B4 (de) * 2002-11-08 2006-12-14 Ludwig-Maximilians-Universität München (Körperschaft des öffentlichen Rechts) Aufnahmevorrichtung für die kopfgestützte Bilderfassung und Verfahren zur Steuerung der Aufnahmevorrichtung
US7574016B2 (en) * 2003-06-26 2009-08-11 Fotonation Vision Limited Digital image processing using face detection information
JP5093968B2 (ja) * 2003-10-15 2012-12-12 オリンパス株式会社 カメラ
WO2005094066A1 (ja) * 2004-03-25 2005-10-06 Sony Corporation 情報信号処理装置、機能ブロック制御方法および機能ブロック
WO2005098516A2 (en) * 2004-04-05 2005-10-20 Vesely Michael A Horizontal perspective hand-on simulator
US20050248681A1 (en) * 2004-05-07 2005-11-10 Nikon Corporation Digital camera
JP4707368B2 (ja) * 2004-06-25 2011-06-22 雅貴 ▲吉▼良 立体視画像作成方法および装置
IL172797A (en) * 2005-12-25 2012-09-24 Elbit Systems Ltd Real-time image scanning and processing
US20070222859A1 (en) * 2006-03-23 2007-09-27 Coban Research And Technologies, Inc. Method for digital video/audio recording with backlight compensation using a touch screen control panel
JP2007289657A (ja) * 2006-03-28 2007-11-08 Fujifilm Corp 画像記録装置、画像記録方法、および画像記録プログラム
JP4607822B2 (ja) * 2006-06-01 2011-01-05 富士フイルム株式会社 デジタルカメラ
JP2008067219A (ja) * 2006-09-08 2008-03-21 Sony Corp 撮像装置、撮像方法
JP4963402B2 (ja) 2006-11-01 2012-06-27 キヤノン株式会社 樹脂成形品の製造方法
CN101072366B (zh) * 2007-05-24 2010-08-11 上海大学 基于光场和双目视觉技术的自由立体显示系统和方法
JP4904243B2 (ja) * 2007-10-17 2012-03-28 富士フイルム株式会社 撮像装置及び撮像制御方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000165738A (ja) * 1998-06-17 2000-06-16 Minolta Co Ltd 撮像装置
JP2005110162A (ja) * 2003-10-02 2005-04-21 Olympus Corp カメラ

Also Published As

Publication number Publication date
CN101566875A (zh) 2009-10-28
US20090271732A1 (en) 2009-10-29
US8441435B2 (en) 2013-05-14
CN101566875B (zh) 2012-11-14
EP2112547A3 (en) 2011-10-26
EP2112547A2 (en) 2009-10-28
JP2009267729A (ja) 2009-11-12

Similar Documents

Publication Publication Date Title
JP4725595B2 (ja) 映像処理装置、映像処理方法、プログラム及び記録媒体
CN108603749B (zh) 信息处理装置、信息处理方法和记录介质
EP3414742B1 (en) Optimized object scanning using sensor fusion
JP4900741B2 (ja) 画像認識装置および操作判定方法並びにプログラム
US9824497B2 (en) Information processing apparatus, information processing system, and information processing method
JP5917017B2 (ja) 画像処理装置及びその制御方法、並びにプログラム
JP5114795B2 (ja) 画像認識装置および操作判定方法並びにプログラム
US20120056989A1 (en) Image recognition apparatus, operation determining method and program
JP5450791B2 (ja) 立体表示装置及び立体撮影装置、並びに利き目判定方法及びこれに用いる利き目判定プログラム並びに記録媒体
US20150378158A1 (en) Gesture registration device, gesture registration program, and gesture registration method
KR20170031733A (ko) 디스플레이를 위한 캡처된 이미지의 시각을 조정하는 기술들
KR101822471B1 (ko) 혼합현실을 이용한 가상현실 시스템 및 그 구현방법
KR20130108643A (ko) 응시 및 제스처 인터페이스를 위한 시스템들 및 방법들
JPH11155152A (ja) 三次元形状情報入力方法及び装置及び画像入力装置
CN110895433A (zh) 用于增强现实中用户交互的方法和装置
KR20230072757A (ko) 웨어러블 전자 장치 및 웨어러블 전자 장치의 동작 방법
WO2018168823A1 (ja) 画像処理装置および電子機器
JP2009129021A (ja) 情報入力システムおよび情報入力方法
JP2016126687A (ja) ヘッドマウントディスプレイ、操作受付方法および操作受付プログラム
JPWO2018225804A1 (ja) 画像表示装置、画像表示方法、及び画像表示プログラム
JP2017046065A (ja) 情報処理装置
US20220244788A1 (en) Head-mounted display
JP2009212582A (ja) バーチャルスタジオ用フィードバックシステム
KR20090112591A (ko) 영상 처리 장치, 영상 처리 방법, 프로그램 및 기록 매체
WO2018168825A1 (ja) 画像処理装置および電子機器

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100209

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100405

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100727

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100917

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110315

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110328

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140422

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees