JP2018523142A - 取込まれた像のパススルー表示 - Google Patents

取込まれた像のパススルー表示 Download PDF

Info

Publication number
JP2018523142A
JP2018523142A JP2017550729A JP2017550729A JP2018523142A JP 2018523142 A JP2018523142 A JP 2018523142A JP 2017550729 A JP2017550729 A JP 2017550729A JP 2017550729 A JP2017550729 A JP 2017550729A JP 2018523142 A JP2018523142 A JP 2018523142A
Authority
JP
Japan
Prior art keywords
pixel row
image
display
pixel
buffer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017550729A
Other languages
English (en)
Inventor
リー,ジョニー・チャン
ゴールドバーグ,スティーブン・ビィ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of JP2018523142A publication Critical patent/JP2018523142A/ja
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0025Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for optical correction, e.g. distorsion, aberration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/385Image reproducers alternating rapidly the location of the left-right image components on the display screens
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2621Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/011Head-up displays characterised by optical features comprising device for correcting geometrical aberrations, distortion
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Optics & Photonics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Studio Devices (AREA)
  • Geometry (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

方法は、撮像センサによって取込まれた画像における1組の画素行のうちの各画素行を撮像センサから連続的に出力するステップを含む。当該方法はさらに、取込まれた画像の第1の画素行を表わす画素行を、取込まれた画像の第2の画素行が撮像センサによって出力される前に、ディスプレイ装置において表示するステップを含む。装置は、第1のタイプの空間歪みをもたらす第1のレンズを有する撮像センサと、撮像センサに連結されるとともに、撮像センサによって取込まれて第1の空間の歪みを有する像を表示するためのディスプレイ装置と、ディスプレイと位置合わせされた接眼レンズとを含む。接眼レンズは、第1のタイプの空間歪みを補償する第2のタイプの空間歪みをもたらす。

Description

関連出願の相互参照
本願は、2015年5月4日に出願された米国仮出願番号第62/156,815号の利点を主張するものであって、その全体が引用によりこの明細書中に援用されている。
開示の分野
本開示は、概して、ディスプレイシステムに関し、より特定的には、ディスプレイシステムにおける1つ以上の撮像センサを介して取込まれた像の表示に関する。
背景
拡張現実(augmented reality:AR)ディスプレイシステムは、典型的には、ユーザの環境の像を取込むように動作し、次いで、取込まれた像の表現をディスプレイ装置上に表示する。これにより、取込まれた像の表現は、拡張表示情報、たとえばARオーバーレイなど、または、取込まれた像の仮想現実(virtual reality:VR)表現、たとえば、取込まれた画像における現実的内容の漫画表現もしくはコンピュータ描写表現などを含み得る。従来のARディスプレイシステムにおいては、各々の画像が取込まれた後、画像の画素がすべて出力されてフレームバッファに一緒にバッファリングされる。その後、プロセッサが、その画像を、フレームバッファからの全体画像として処理し、さらに、結果として生じる修正画像がフレームバッファからディスプレイ装置に出力されて、修正画像が表示される。
この処理経路は、画像が取込まれる時間と画像の表現が表示される時間との間に実質的な遅れをもたらす。多くのAR実現例においては、特に、頭部装着型ディスプレイ(head mounted display:HMD)システムなどにおける画像取込み装置が動作中であり得るような実現例においては、この遅れは、画像取込み装置の動きとディスプレイ装置における動きの結果の表示との間に認知可能な遅延をもたらす可能性があり、これにより、ユーザの経験が損なわれる可能性がある。
図面の簡単な説明
添付の図面を参照することにより、本開示が当業者によってより良く理解され得るとともに、その多数の特徴および利点が当業者にとって明らかになり得る。異なる図面において同じ参照符号を用いる場合、これらは同様のアイテムまたは同一のアイテムを示している。
本開示の少なくとも1つの実施形態に従った、ラインロック型ディスプレイを用いて、拡張現実表示を行なう電子装置を示す図である。 本開示の少なくとも1つの実施形態に従った、電子装置の頭部装着型ディスプレイ(HMD)の実現例を示す正面平面図である。 本開示の少なくとも1つの実施形態に従った、図2のHMD実現例を示す背面平面図である。 本開示の少なくとも1つの実施形態に従った図2のHMD実現例を示す断面図である。 本開示の少なくとも1つの実施形態に従った、ラインロック型ディスプレイを有する電子装置の処理システムを示すブロック図である。 本開示の少なくとも1つの実施形態に従った、図5の処理システムの一部の詳細を示すブロック図である。 本開示の少なくとも1つの実施形態に従った、ラインロック型ディスプレイを用いて、取込まれた像のパススルー表示を行うための、図5および図6の処理システムの動作を示すフロー図である。 少なくとも1つの実施形態に従った、ラインロック型ディスプレイにおいて2つの像ストリームを表示するための立体視HMDシステムの動作を示す図である。 少なくとも1つの実施形態に従った、ラインロック型ディスプレイにおいて2つの像ストリームを交互に表示するための立体視HMDシステムの動作を示す図である。 少なくとも1つの実施形態に従った、相補的な空間歪みタイプであるカメラレンズおよび接眼レンズを利用するARディスプレイシステムの実現例を示す図である。
詳細な説明
以下の説明は、像の取込みおよび表示のシステムを含むいくつかの具体的な実施形態および詳細を提供することによって本開示の十分な理解をもたらすように意図されている。しかしながら、本開示が、単なる例示に過ぎないこれらの具体的な実施形態および詳細に限定されないものであり、このため、開示の範囲が添付の特許請求の範囲およびその同等例によってのみ限定されるよう意図されていることが理解される。当業者が、公知のシステムおよび方法に鑑みて、特定の設計および他の必要性に応じて、いくつもの代替的な実施形態において、その意図された目的および利点についての開示を使用することを認識するだろうことがさらに理解される。
並列的な取込み/表示のシステムにおいては、1つ以上の撮像センサを用いて、局所環境の像を(ビデオ形式で)取込み、さらに、この像が(たとえば、ARオーバーレイを含むように、もしくは、視覚的内容の仮想現実(VR)表現に変換されるように、または、特定のフィルタリングもしくは歪曲修正を組込むように)修正され、次いで、結果として得られる修正像がユーザに表示される。従来のシステムにおいては、像処理/表示工程は、取込まれた画像(またはフレーム)の各々が全体的にフレームバッファにバッファリングされることを必要とする。画像全体がフレームバッファにバッファリングされると、プロセッサは、たとえば、画像全体に対して、空間フィルタもしくは色フィルタを適用したり、ARオーバーレイを適用したり、または、現実的内容の表現的VR内容(たとえば、画像における物体の「漫画」バージョン)への変換を適用したりすることなどによって、画像内容を修正するために1つ以上のプロセスを実行し得る。次いで、結果として生じる修正画像がディスプレイ装置に提供されて表示される。この比較的長い処理工程により、画像取込みと画像表示との間に、しばしばユーザにとって認知可能なかなりの待ち時間がもたらされる。
図1〜図10は、画像取込みと画像表示との間の待ち時間を減らすかまたは最小限にするように、ディスプレイシステムにおける像の取込みおよび表示を効率的にするためのさまざまな技術を示す。ディスプレイシステムは、局所環境から像を取込むための1つ以上の撮像センサと、取込まれた像またはその修正表現を表示するディスプレイ装置とを実現する。典型的には、撮像センサは、画像を取込むために数行の画素センサを露光させることによって動作し、次いで、画素センサの各行ごとの画素データが順々に移出される。画像を処理して表示し始める前に、画素データの行(以下、「画素行」)をすべてバッファリングするのではなく、少なくとも1つの実施形態において、ディスプレイシステムは、画像の最後の画素行が撮像センサによって出力される前に、撮像センサによって出力された画像の画素行の処理および表示を開始する。例示のために、いくつかの実施形態においては、ディスプレイシステムは、画像についての出力画素行ストリームの「スライディングウィンドウ」を表現する各々の画素行が小型バッファにおける撮像センサから出力されると、一時的にこれら各々の画素行をバッファリングし、バッファに格納された画素行の小さなサブセットを用いて効率的な修正プロセスを1回以上実行し、次いで、バッファから各々の修正画素行に順々にアクセスし、アクセスされた修正画素行でディスプレイ装置の対応する行を駆動する。
この態様では、バッファが画像のうち最初の画素行で満たされている最初の短い期間の後、各々の画素行が撮像センサによって出力されてバッファにバッファリングされると、別の画素行がバッファからアクセスされ、ディスプレイ装置の画素の対応する行に表示される。このため、このプロセスはこの明細書中においては「パススルー表示(pass-through display)」と称され、パススルー表示をもたらすように撮像センサに連結されたディスプレイ装置の構成は、撮像センサからの「ライン」(すなわち画素行)の出力とディスプレイ装置において表示された対応するラインまたは行との間のこの1対1の同期を反映させるための「ラインロック型(line-locked)」ディスプレイと称される。このパススルー表示プロセスでは、画像処理およびその後の表示処理を始める前に画像全体をバッファリングする必要が無くなり、このため、画像取込みと表現的画像の表示との間の遅延が、従来のディスプレイシステムと比べて著しく減じられている。これにより、この明細書中に記載されるパススルー表示システムおよび技術は、従来のディスプレイシステムと比べて、ユーザ経験を向上させる。
例示のために、画像取込み/ディスプレイシステムにおける待ち時間は、光の光子がセンサによってサンプリングされてから光子がディスプレイによってユーザに提示されるまでの時間との間の時間として理解されてもよい。従来のシステムにおいては、この待ち時間は、Texp+Trow+(rows_frameT_row)+Tsync+Tcompose+Tdisplayとして表現され得る。この場合、Texpは画像センサ上の画素の露光時間であり、Trowは、単一の行をセンサから読出す時間であり、rows_frameは画像フレームにおける行の数であり、Tcomposeはコンポジタによって導入される時間であり、Tsyncは、行を出力する準備ができ(歪みおよび合成のために十分に調整され)てから、そのラインのためにディスプレイコントローラの準備ができるまでの時間との間の時間であり、Tdisplayは、ディスプレイコントローラがディスプレイ上で画素をアクティブにするのに必要な時間である。この明細書中に記載される例示的な技術により、レンズ歪みに合わせて調整するのに必要な行の数が減らされるかもしくは最小限にされ、または、他のいくつかの画像修正技術が実現され、これにより、コンポーネント(rows_frameT_row)が(c_rowsT_row)にまで減じられる。この場合、c_rowsは、フレームのその部分での所望の修正アルゴリズムを実現するためにフレームからバッファリングされた行の数である。そのため、これらのラインロック技術によって実現される待ち時間の減少は、(rows_frame−c_rows)T_rowとして表現され得る。さらに、画像センサは、この明細書中に記載される技術を用いて、ディスプレイに同期されたフレームであり得るので、記載された技術は、画像取込みと表示との間の待ち時間に対するTsyncの寄与を排除し得る。
図1は、本開示の少なくとも1つの実施形態に従った、パススルー表示によってAR機能またはVR機能を提供するように構成された電子装置100を示す。電子装置100は、ポータブルなユーザ装置、たとえば、頭部装着型ディスプレイ(HMD)、タブレットコンピュータ、コンピューティング対応の携帯電話(たとえば「スマートフォン」)、ノート型コンピュータ、携帯情報端末(personal digital assistant:PDA)、ゲームコンソールシステムなどを含み得る。他の実施形態においては、電子装置100は、取付け装置、たとえば、医療用撮像機器、セキュリティ撮像センサシステム、工業用ロボット制御システム、ドローン制御システムなどを含み得る。例示を容易にするために、電子装置100は、この明細書中において、HMDシステムの例示的文脈において概略的に説明されている。しかしながら、電子装置100はこれらの実現例には限定されない。
図示される例においては、電子装置100は、表面104および対向する別の表面106を有するハウジング102と、1組のストラップまたはハーネス(明瞭にするために図1から省かれている)とを含む。1組のストラップまたはハーネスは、ユーザがハウジング102の表面104に向かって面するようにユーザ110の頭部にハウジング102を装着するためのものである。細い矩形ブロックのフォームファクタで示される例においては、表面104および表面106はハウジング102において実質的に平行である。ハウジング102は、他の多くのフォームファクタで実現されてもよく、表面104および表面106は平行に配向されていなくてもよい。図示されるHMDシステムを実現するために、電子装置100は、表面106に配置されてユーザ110に視覚情報を提示するためのディスプレイ装置108を含む。このため、参照を容易にするために、表面106はこの明細書中においては「前向きの」表面と称され、表面104はこの明細書中においては「ユーザの方を向いた」表面と称されており、ユーザ110に対する電子装置100のこの例示的な向きを反映するものとしているが、これらの表面の向きはこれらの関係を表わす呼称によって限定されるものではない。
電子装置100は、電子装置100の局所環境112に関する情報を得るために複数のセンサを含む。電子装置100は、前向きの表面106に配置された撮像センサ114、116などの1つ以上の撮像センサを介して、局所環境112についての視覚情報(像)を得る。一実施形態においては、撮像センサ114は、表面106に面する局所環境112のより広角の視野を提供するために、魚眼レンズまたは他の広角レンズを有する広角撮像センサとして実現されており、撮像センサ116は、表面106に面する局所環境112のより狭角の視野を提供するために、典型的な画角レンズを有する狭角撮像センサとして実現されている。したがって、撮像センサ114および撮像センサ116は、この明細書中において、それぞれ「広角撮像センサ114」および「狭角撮像センサ116」とも称される。
広角撮像センサ114および狭角撮像センサ116は、それらセンサの視野同士の重なりが電子装置100から特定の距離を空けて始まるように、前向きの表面106上に位置決めして配向され得る。これにより、多視点画像分析によって、局所環境112のうち視野が重なっている領域に位置している物体の奥行きを検知することが可能となる。代替的には、表面106上に配置された奥行きセンサ120は、局所環境における物体についての奥行き情報を提供するために用いられてもよい。奥行きセンサ120は、一実施形態においては、調光プロジェクタを用いて、調光パターンを前向きの表面106から局所環境112に投影し、撮像センサ114および撮像センサ116のうち一方または両方を用いて、局所環境112において調光パターンが物体から反射して戻ってくるときにこれら調光パターンの反射を取込む。これらの調光パターンは、空間的に調整された光パターンまたは時間的に調整された光パターンのいずれかであり得る。取込まれた調光フラッシュの反射は、この明細書中においては「奥行き画像」または「奥行き像」と称される。奥行きセンサ120は、次いで、物体の奥行き(すなわち、奥行き像の分析に基づいた電子装置100から物体までの距離)を計算し得る。奥行きセンサ120から結果として得られた奥行きデータは、撮像センサ114および116によって取込まれた画像データの多視点分析(たとえば立体視的分析)から得られる奥行き情報を較正するかまたは拡張するために用いられてもよい。代替的には、奥行きセンサ120からの奥行きデータは、多視点分析から得られる奥行き情報の代わりに用いられてもよい。
撮像センサ114および116のうちの1つ以上は、局所環境112の像を取込むことに加えて、電子装置100のための他の撮像機能を果たし得る。例示するために、撮像センサ114および116は、位置および配向の検出をサポートするために、像を取込むなどの視覚的な遠隔測定機能をサポートするために用いられてもよい。さらに、いくつかの実施形態においては、ユーザの方に面する表面104に配置された撮像センサ(図示せず)は、ユーザ110の頭部の動きを追跡するために、または顔認識のために用いられてもよく、これにより、ディスプレイ装置108を介して提示される像を透視する視野を調整するために用いられ得る頭部追跡情報を提供し得る。電子装置100はまた、位置/配向の検出についての非画像情報に依拠する可能性がある。この非画像情報は、ジャイロスコープまたは周囲光センサなどの1つ以上の非画像センサ(図1には図示せず)を介して電子装置100によって得ることができる。非画像センサはまた、キーパッド(たとえばタッチスクリーンまたはキーボード)、マイクロホン、マウスなどのユーザインターフェイス構成要素を含み得る。
動作時に、電子装置100は、撮像センサ114、116のうちの一方または両方を介して局所環境112の像を取込み、取込まれた像を修正するかまたは処理し、処理された取込み像をディスプレイ装置108上に表示にするように提供する。取込まれた像の処理は、たとえば、空間フィルタリングもしくは色フィルタリング、ARオーバーレイの追加、像の現実的内容を対応するVR内容に変換することなどを含み得る。図1に示されるように、2つの撮像センサを備えた実現例においては、ディスプレイ装置108の右側領域において右側の撮像センサ116からの像が処理されて表示されるのと同時に、左側の撮像センサ114からの像がディスプレイ装置108の左側領域において処理されて表示されてもよく、これにより、取込まれた像の立体視的3D表示が可能となる。
局所環境112の像を取込んでAR修正またはVR修正を施して表示することに加えて、少なくとも1つの実施形態においては、電子装置100は、画像センサデータおよび非画像センサデータを用いて、電子装置100の相対的位置/配向(すなわち、局所環境112に対する位置/配向)を判断する。この相対的位置/配向情報は、SLAM(simultaneous location and mapping)機能、自己位置認識(visual odometry)または他の位置ベースの機能をサポートするために電子装置100によって用いられてもよい。さらに、相対的な位置/配向情報は、取込まれた像と共に表示されるARオーバーレイ情報の生成をサポートし得るか、または、取込まれた像の表現に表示されるVR視覚情報の生成をサポートし得る。一例として、電子装置100は、局所環境112をマッピングすることができ、さらに、このマッピングを用いて、マッピング情報から生成されるフロアプランと、電子装置100の現在の相対的位置から判断されるようなフロアプランに対するユーザの現在位置についてのインジケータとをユーザに表示することなどによって、ユーザによる局所環境112内のナビゲーションを容易にし得る。
この目的のために、相対的位置/配向の判断は、撮像センサ114および116のうちの1つ以上によって取込まれた画像データ内における空間的特徴の検出と、検出された空間的特徴に対して相対的な電子装置100の位置/配向の判断とに基づいていてもよい。例示するために、図1に示される例においては、局所環境112は、3つの角部124、126および128、幅木130、ならびに電気コンセント132を含むオフィスビルの廊下を含む。ユーザ110は、撮像センサ114および116が玄関のこれらの空間的特徴を含むカメラ画像データ134を取込むように、電子装置100を位置決めして配向している。この例においては、奥行きセンサ120はまた、電子装置100の現在の位置/配向に対するこれらの空間的特徴の相対的距離を反映した奥行きデータ138を取込む。さらに、ユーザの方に面する撮像センサ(図示せず)は、ユーザ110の頭部の現在位置/配向についての頭部追跡データ140を表現する画像データを取込む。ジャイロスコープ、磁力計、周囲光センサ、キーパッド、マイクロホンなどからの読取り値などの非画像センサデータ142は、その現在位置/配向にある電子装置100によっても収集される。
この入力データから、電子装置100は、外部ソースからの明確な絶対的位置特定情報なしでも、その相対的な位置/配向を判断することができる。例示するために、電子装置100は、広角撮像センサ画像データ134および狭角撮像センサ画像データ136の多視点分析を実行して、電子装置100と角部124、126、128との間の距離を判断することができる。代替的には、奥行きセンサ120から得られた奥行きデータ138は、空間的特徴の距離を判断するために用いることができる。これらの距離から、電子装置100は、局所環境112によって表現されるオフィス内のその相対的位置を三角測量するかまたは推量することができる。別の例として、電子装置100は、画像データ134のうち1セットの取込まれた画像フレームに存在する空間的特徴を識別し、これらの空間的特徴までの初期距離を判断し、次いで、後に取込まれた像におけるこれらの空間的特徴の位置および距離の変化を追跡して、電子装置100の位置/配向の変化を判断することができる。このアプローチでは、ジャイロスコープデータまたは加速度計データなどのいくつかの非画像センサデータは、1つの画像フレームにおいて観察された空間的特徴をその後続の画像フレームにおいて観察される空間的特徴と相互に関連付けるために用いることができる。さらに、電子装置100によって得られる相対的な位置/配向情報を補足的情報144と組合わせて、局所環境112のAR視野を、電子装置100のディスプレイ装置108を介してユーザ110に提示することができる。この補足的情報144は1つ以上のARデータベースを含み得る。1つ以上のARデータベースは、電子装置100にローカルに格納されているか、または、有線ネットワークもしくは無線ネットワークを介して電子装置100によってリモートでアクセス可能である。
例示するために、図1に示される例においては、ローカルまたはリモートのデータベース(図示せず)は、局所環境112によって表現されるオフィスの壁内に埋込まれた電気的配線についての位置/配向CAD(computer-aided drawing)情報を格納する。したがって、電子装置100は、撮像センサ114、116を介して局所環境112の視野のビデオ像を取込み、電子装置100の相対的な配向/位置を判断し、局所環境112の視野に存在する壁内に位置する電気的配線の位置および配向を判断することができる。電子装置100は、次いで、ビデオ像において識別された対応する空間的特徴(たとえば角部124、126および128)に対して相対的に位置決めされて配向された電気的配線の視覚的表現を用いて、グラフィカルなARオーバーレイを生成することができる。図1に示されるように、グラフィカルなARオーバーレイは、この図において電気的配線を表現している破線152および154と、配線タイプ、配線に関連付けられた識別子、および、対応する配線によって電力供給される建築部材などの電気的配線を説明するための説明用の吹出し156および158とを含み得る。さらに、電子装置100は、狭角撮像センサ116によって取込まれるような局所環境112の現在の表示内における電気的配線の位置の図的表現160をユーザ110に提示するために、ディスプレイ装置108においてグラフィカルなオーバーレイおよび取込まれた像を一緒に提示する。電子装置100が以前の視野に対して相対的に移動すると、電子装置100は変化した見え方を反映するようにARオーバーレイを更新する。さらに、頭部追跡データ140を用いて、ディスプレイ装置108に対するユーザ110の頭部122の位置の変化を検出することができ、これに応じて、電子装置100は、ディスプレイ装置108に対するユーザ110の視野角の変化を反映するように、表示された図的表現160を調整することができる。
別の例として、ローカルまたはリモートのARデータベースを用いることにより、電子装置100による屋内のナビゲーションを容易にすることができる。例示するために、局所環境112は、ショッピングモールの内部を表現することができ、特定の店舗を捜し出したいとの要望を示すユーザ入力を受取ったことに応じて、電子装置100は、ARデータベースにアクセスして、その現在の位置に対する店舗の位置を判断することができる。この情報を用いれば、電子装置100は、(たとえば、「右折」、「左折」「真っすぐに直進」または「方向転換」の矢印図の表示により)電子装置100が向けられている現在の方向に対する店舗の方向を識別するグラフィカルなオーバーレイを、撮像センサ114および116のうち1つ以上によって現在取込まれているビデオ像の上に、表示することができる。
図1の例においては、電子装置100はHMDシステムとして実現される。このため、撮像センサ114および116は、ユーザ110が局所環境112を通って移動するせいで、大幅に動いてしまうこととなる。電子装置100が特定の位置/配向に配置されているときに行われる像の取込みと取込まれた像の表示との間に生じる認知可能な遅れはいずれも、ユーザ110の方向感覚を著しく狂わせてしまう可能性がある。したがって、画像の取込みと画像の表示との間の遅れを減らすために、少なくとも1つの実施形態においては、電子装置100は、各々の画像が撮像センサのうちの1つによって取込まれて、画像の各画素行の連続出力が撮像センサによって開始されたときに、画像の最後の画素行が撮像センサによって出力される前に電子装置100が画像の画素行の処理および表示を開始するように、撮像センサ114および116のうちの一方または両方によって取込まれた像のパススルー表示を行なう。すなわち、最初のバッファリングがほんのわずかだけ遅れた後、各々の画素行が撮像センサによって出力されると、先に出力された画素行がディスプレイ装置108に表示され、これにより、ディスプレイ装置108が撮像センサ114および116のうち一方または両方にラインロックされる。このパススルー表示プロセスのための例示的なシステムおよび技術が、図5〜図9に関連付けて、以下においてより詳細に記載される。
図2および図3は、それぞれ、本開示の少なくとも1つの実施形態に従った、電子装置100の実現例をHMDフォームファクタで示す正面平面図および背面平面図を例示する。電子装置100は、例示されるものと同様の構成を実現する他のフォームファクタ、たとえばスマートフォンのフォームファクタ、タブレットのフォームファクタ、医療用画像装置のフォームファクタなど、で実現されてもよい。
図2の正面平面図200によって示されるように、電子装置100は、前向きの表面106に配置された撮像センサ114、116と、奥行きセンサ120の調光プロジェクタ202とを含み得る。図2および図3は、図4における断面図の例示のために、直線に沿って位置合わせされた撮像センサ114、116および調光プロジェクタ202を示しているが、撮像センサ114、116および調光プロジェクタ202は互いにずらされていてもよい。
図3の背面平面図300によって示されるように、電子装置100は、表面104に配置されたディスプレイ装置108と、(ストラップまたはハーネスとともに使用される)ユーザ110の顔に電子装置100を固定するための顔用パッキン302と、ユーザ110の左眼および右眼のそれぞれに対する接眼レンズ304および306とを含む。背面平面図300に示されるように、接眼レンズ304は、ディスプレイ装置108の表示区域の左側領域308と位置合わせされ、接眼レンズ306はディスプレイ装置108の表示区域の右側領域310と位置合わせされている。このため、立体表示モードでは、撮像センサ114によって取込まれた像は、左側領域308に表示されて、接眼レンズ304を介してユーザの左眼によって視認され得るとともに、撮像センサ116によって取込まれた像は、右側領域310に表示されて、接眼レンズ306を介してユーザの右眼によって視認され得る。
図4は、本開示の少なくとも1つの実施形態に従った、図2および図3の平面図に示された線204に沿ってユーザ110の頭部402に装着される電子装置100の例示的な断面図400を示す。例示されるように、電子装置100は、ハウジング102のうち前向きの表面106における対応するアパーチャまたは他の開口部に配置された撮像センサ114、116および調光プロジェクタ202と、ハウジング102のうちユーザの方に面する表面104における対応するアパーチャまたは他の開口部に配置された接眼レンズ304および306と、ハウジング102内の接眼レンズ304および306から遠位側に配置されたディスプレイ装置108とを含む。撮像センサ114は、画像センサ408と、画像センサ408の検知面上に配置された1つ以上の光学レンズ410とを含む。同様に、撮像センサ116は、画像センサ412と、画像センサ412の検知面上に配置された1つ以上の光学レンズ414とを含む。各々の撮像センサのために実現されるレンズのタイプは、撮像センサの意図される機能に左右される。たとえば、レンズ410は、たとえば、既知の高い歪みがある状態で160度〜180度の画角を有する広角レンズまたは魚眼レンズとして実現されてもよく、撮像センサ116のレンズ414は、たとえば水平に80度〜90度の画角を有する狭角レンズとして実現されてもよい。これらの画角が単に例示的なものに過ぎないことに留意されたい。
いくつかの実施形態においては、電子装置100の撮像センサ114、116、ディスプレイ装置108および他の構成要素の動作を制御およびサポートする電子部品のうちのいくつかまたはすべては、断面図400においてブロック420によって表現されるようにハウジング102内に実現されてもよく、図5に関連付けて以下に詳細に記載されている。ブロック420は例示を容易にするために一体構造のブロックとして示されているが、これらの電子部品が単一のパッケージもしくは構成要素として、または1組の相互接続された離散的な電子部品として実現され得ることが認識されるだろう。さらに、いくつかの実施形態においては、これらの電子部品のうちのいくつかまたはすべてはハウジング102に対して遠隔で実現されてもよい。例示するために、ディスプレイシステムの処理構成要素は、タブレットコンピュータ、ノート型コンピュータ、デスクトップコンピュータ、コンピュータ計算対応の携帯電話などの別個の装置において実現されてもよく、1つ以上の無線接続または有線接続を介して、撮像センサ114、116およびディスプレイ装置108を組込んだHMDに接続されている。
図5は、本開示の少なくとも1つの実施形態に従った、電子装置100によって実現される例示的な処理システム500を示す。処理システム500は、ディスプレイ装置108、撮像センサ114、116、および奥行きセンサ120を含む。処理システム800はさらに、コンポジタ502、画素行バッファ503および505、アプリケーションプロセッサ504、ディスプレイコントローラ506、システムメモリ508、非画像センサのセット510、ならびにユーザインターフェイス512を含む。ユーザインターフェイス512は、電子装置100にユーザ入力を提供するためにユーザによって操作される1つ以上の構成要素、たとえば、タッチスクリーン514、マウス、キーボード、マイクロホン516、さまざまなボタンまたはスイッチ、およびさまざまな触覚型アクチュエータ518など、を含む。非画像センサのセット510は、電子装置100の非画像の情状況または状態を提供するのに用いられる任意のさまざまなセンサを含み得る。このようなセンサの例として、ジャイロスコープ520、磁力計522、加速度計524および周囲光センサ526が含まれる。非画像センサはさらに、さまざまな無線受信または送信ベースのセンサ、たとえば、GPSレシーバ528、無線ローカルエリアネットワーク(wireless local area network:WLAN)インターフェイス530、セルラーインターフェイス532、ピア・ツー・ピア(peer-to-peer:P2P)無線インターフェイス534、および近距離無線通信(near field communications:NFC)インターフェイス536などを含み得る。非画像センサはまた、タッチスクリーン514またはマイクロホン516などのユーザインターフェイス512のユーザ入力コンポーネントを含み得る。
電子装置100はさらに、その画像処理、位置マッピングおよび位置利用プロセスと共に用いられる情報またはメタデータを格納するさまざまなデータストア542にアクセスする。データストア542は、電子装置100の撮像センサによって取込まれた像から識別される2Dまたは3Dの空間的特徴についてのメタデータを格納するための空間的特徴データストアと、電子装置100によって既に探索されていた局所環境112(図1)の区域についてのマッピング情報などのSLAMベースの情報を格納するSLAMデータストアと、局所環境112における対象となる物体の相対的位置についてのCADベースの表現などのARオーバーレイ情報またはVR情報を格納するARデータストアとを含み得る。データストアはハードドライブ、ソリッドステートメモリまたはリムーバブル記憶媒体(図示せず)上などにおいて電子装置100にとってローカルであってもよく、データストアは1つ以上のサーバにおいてリモートに配置されて、たとえば電子装置100の無線インターフェイスのうち1つ以上を介してアクセス可能であってもよく、または、データストアはローカルデータストレージとリモートデータストレージとの組合せとして実現されてもよい。
動作の際に、撮像センサ114および116は局所環境の像を取込み、コンポジタ502は取込まれた像を処理して修正像を生成し、ディスプレイコントローラ506はディスプレイ装置108に修正像を表示するようにディスプレイ装置108を制御する。同時に、アプリケーションプロセッサ504は、オペレーティングシステム(operating system:OS)540および他のソフトウェアプログラムを実行して、取込まれた像と組合わせてさまざまな機能を提供する。たとえば、奥行きセンサ120によって取込まれた取込み像または奥行き情報における空間的特徴を検出するための空間的特徴検出プロセス、検出された空間的特徴または非画像センサのセット510によって提供される非センサ情報に基づいた電子装置100の現在位置/配向の検出、取込まれた像と共に表示されるべきARオーバーレイの生成、取込まれた像の表現に加えて、または取込まれた像の表現として表示されるべきVR内容など、である。
図6および図7に関連付けて以下にさらにより詳細に記載されるように、少なくとも1つの実施形態においては、処理システム500は、撮像センサによって取込まれた像のパススルー表示を可能にするために、撮像センサ114、116およびディスプレイ装置108をラインロックされた構成で用いる。この実現例においては、撮像センサ114によって取込まれた各画像は、行ごとに画素行バッファ503に移出される。次いで、画素行バッファ503は、直前に出力された画素行よりも前に出力された画素行のサブセットと共に、直前に出力された画素行をバッファリングするように動作する。同様に、撮像センサ116によって取込まれた各画像は、行ごとに画素行バッファ505に移出される。画素行バッファ505は、撮像センサ116から事前に出力された画素行のサブセットと共に、撮像センサ116から直前に出力された画素行をバッファリングするように動作する。同時に、OS540または他のコンピュータプログラムがアプリケーションプロセッサ504によって実行されて、各画像と共に表示されるべきARオーバーレイが決定され、結果として生じるARオーバーレイ情報がコンポジタ502に提供される。コンポジタ502は、画素行の対応する位置に関連付けられたARオーバーレイ情報を組込むように、画素行バッファにおける1つ以上の画素行を修正する。コンポジタ502はさらに、対応する画素行バッファにバッファリングされる画素行を用いて、エッジ検出または他の空間フィルタリング、色フィルタリングなどのさまざまな付加的な画像処理機能を、バッファリングされた画素行の比較的小さなサブセットを用いて、実行し得る。取込まれた画像のための新しい画素行が画素行バッファに移されると、取込まれた画像のうちの処理された画素行が行バッファから移出され、ディスプレイコントローラ506に提供される。ディスプレイコントローラ506は、さらに、受取った修正画素行を表示するようにディスプレイ装置108を操作する。このアプローチにおいては、取込まれた画像について結果として生じる修正表現は、撮像センサが取込まれた画像を出力し終わる前に表示され始められる可能性があり、これにより、画像全体が移出されて全体としてバッファリングされてからでないと表示処理が開始できないような従来のシステムと比べて、画像取込みと表示との間の遅れが減じられる。
撮像センサ114および116のそれぞれの画像センサ408および412は、電荷結合素子(charge coupled device:CCD)ベースのセンサ、相補性金属酸化膜半導体(complementary metal-oxide-semiconductor:CMOS)アクティブ画素センサなど、として実現することができる。CMOSベースの実現例において、画像センサはローリング・シャッター・センサを含んでもよく、これにより、画像センサの画素センサのうちの1つ以上の行のサブセットが読出されるが、この間、センサ上の他のすべての行が露光され続けている。このアプローチは、露光時間がより長いかまたは使用可能な感光面積がより広いことにより、感度が高くなるという利点を有するが、高速物体がフレームに取込まれることにより、歪みが起こり易いという欠点もある。歪みの影響は、ローリング・シャッターにおいて全体的なリセット機構を実現することによって最小限にすることができ、このため、センサ上の画素がすべて、電荷を行ごとではなく同時に蓄積し始めるようになる。CCDベースの実現例においては、画像センサは、全体的なシャッタセンサとして実現することができる。これにより、センサの画素がすべて同時に露光され、次いで、シールド区域に移送され、さらに、次の画像フレームが露光されている間に行ごとに移出され得る。このアプローチは、歪みが起こりにくいという利点を有するが、画素ごとに追加の電子機器が必要になるせいで感度が全体的に低下するという欠点もある。さらに、全体的なリセット機構がアーティファクトをもたらし、これにより、各行の露光時間の量に相違が生じてしまう(露光の合計時間が最上行から最下行に向かって減少する)ので、かつ、一定の照明条件を前提とするとこの相違により露光時間が直線的に変化してしまうので、コンポジタ502は、画素行バッファ503および505における画素行をこれに応じて修正することによって、この露光の相違に合わせて調整を行ない得る。
図6は、本開示の少なくとも1つの実施形態に従った、撮像センサ114、画素行バッファ503、コンポジタ502、ディスプレイコントローラ506およびディスプレイ装置108を含むサブシステムをより詳細に示す。撮像センサ116および画素行バッファ505は、コンポジタ502、ディスプレイコントローラ506およびディスプレイ装置108に関して同様の態様で構成されてもよい。図示される実施形態においては、撮像センサ114はセンサアレイ604およびアレイ制御論理606を含む。センサアレイ604は1組の画素センサ行(図示せず)を含む。各々の画素センサ行は、画素の対応する行のための光を、蓄積された電荷の形態で集めるための回路類を含む。蓄積された電荷は、画素行における各々の画素「位置」において取込まれて、対応する画像フレームのためのその画素行内の画素位置についての「画像データ」または「画像内容」を表現する。アレイ制御論理606は、(「FRAME_CLK」として図6に表わされる)フレームクロック616に同期されるように、センサコントローラ608から受取ったさまざまな制御シグナリング((それぞれ「リセット(RESET)」、「読出し(READOUT)」および「露光(EXPOSE)」として図6に表わされる)リセットシグナリング610、読出しシグナリング612および露光信号614を含む)に応じて各画素行からの画像データの実行、終了および読出しを制御する。リセットシグナリング610のアサーションに応じて、アレイ制御論理606は、センサアレイ604の「全体的なリセット」に影響を及ぼす。この場合、センサアレイ604の全画素行の回路類がリセットされ、これにより、センサアレイ604に存在するいずれの蓄積電荷もクリアされる。露光信号614のアサーションに応じて、アレイ制御論理606は、シャッター信号620のアサーションによって、上を覆っている機械的または電子的シャッター618の開口を開始し、これにより画素センサ行を露光させて、対応する画像のための画像データの取込みを表現する電荷を蓄積し始めるようにする。読出しシグナリング612のアサーションに応じて、アレイ制御論理606は、露光のために実行されるのと同じ順序で各画素行の露光を終了させるプロセスを開始し、センサアレイ604からの画素データを各画素センサ行から順々に移出するプロセスを開始する。
画素行バッファ503は、撮像センサ114の出力に連結されて、撮像センサ114から順番に出力される各画素行を受取るための入力と、各々が対応する画素行を格納すべき1セットの1つ以上のバッファエントリ623(図6に示される4つのエントリなど)と、処理された画素行を順番に供給するための出力とを有する。図6に示される実施形態においては、画素行バッファ503は、アクセス衝突を避けるためにダブルバッファリング型の実現例を有する。これにより、画素行バッファ503は、画素行バッファエントリのうち1つのコピー621と、画素行バッファエントリのうち別のコピー622とを交互にして、入来する画素行を格納する。画素行バッファ503はさらにスイッチング回路類624を含む。スイッチング回路類624は、マルチプレクサ626、628、630、632およびバッファコントローラ634を含む。バッファコントローラ634は、撮像センサ114、コンポジタ502およびディスプレイコントローラ506による適切なバッファエントリ623へのアクセスを容易にするようにこれらマルチプレクサを制御するためのものである。
コンポジタ502は、スイッチング回路類624を介して画素行バッファ503に連結された入力および出力を有する。コンポジタ502は、撮像センサ114から入来する画素行を受取るのにその時点では用いられていない画素バッファ行コピーにおいてバッファリングされた画素行を処理するように動作する。この目的のために、コンポジタ502はオーバーレイ回路類636を含み得る。オーバーレイ回路類636を用いて、1つ以上のバッファリングされた画素行を修正することにより、処理されている時点での画像タイムスロットの最中にアプリケーションプロセッサ504から受取られたARオーバーレイデータ638における対応する画像行位置についての画像情報が組込まれる。撮像センサ114によって取込まれた画像の表示とARオーバーレイ情報の表示との間の適切な同期を確実にするために、コンポジタ502は同期回路類640を含み得る。同期回路類640は、ARオーバーレイ情報を適切なタイミングで組込むことを確実にするために、ARオーバーレイデータ638の一部として提供されるタイムスタンプ情報を分析する。さらに、コンポジタ602はフィルタリング回路類642を含み得る。フィルタリング回路類642は、エッジ検出/強調化、空間歪み補正、色歪み補正などの1つ以上のフィルタリングプロセスを適用することによって1つ以上のバッファリングされた画素行を修正するために用いられる。
ディスプレイコントローラ506は、画素行バッファ503の出力に連結された入力と、ディスプレイ装置108に連結された少なくとも1つのスキャンアウトライン644とを有する。図6に示されるように、ディスプレイ装置108は、列ドライバ648および行ドライバ650によって選択的に起動される(発光ダイオード(light emitting diode:LED)または有機発光ダイオード(organic light emitting diode:OLED)などの)ディスプレイ要素646のアレイ645から構成されてもよい。ディスプレイコントローラ506は、画素行バッファ503から処理済みの各画素行を順番に受取り、受取った画素行毎に、受取った画素行の行位置に基づいてアレイ645の行を示す行選択インジケータ652を行ドライバ650に提供し、受取った画素行における画素の画素値を表現する画素行データ654を列ドライバ648に提供する。行ドライバ650および列ドライバ648は、次いで、これらの入力に基づいてアレイ645に対するそれぞれの出力を制御して、アレイ645の対応する行におけるディスプレイ要素646を選択的に起動することにより、アレイ645のその行において画素行の表現を表示するようにする。
図6は、撮像センサ114からの出力行が画素行バッファ503において一時的にバッファリングされてコンポジタ502によって処理されている実現例を示しているが、いくつかの実施形態においては、撮像センサ114は、各々の行が出力されると、これら各々の行がディスプレイ108の対応する行においてディスプレイコントローラ506によって直接表示され得るように、ディスプレイコントローラ506に直接連結されていてもよい。このような場合、撮像センサ114は、ディスプレイと適合したフォーマットで画素データを出力するように構成されているか、または、ディスプレイ108は撮像センサ114の出力フォーマットを受付けるように構成されている。例示するために、多くの従来の撮像センサが、典型的には、MIPIカメラシリアルインターフェイス(camera serial interface:CSI)フォーマットで画素データを出力するのに対して、ディスプレイは、典型的には、MIPIディスプレイシリアルインターフェイス(display serial interface:DSI)フォーマットで表示データを受付けるように構成されている。したがって、一実現例においては、撮像センサ114は、MIPI DSIフォーマットで画素行を出力し得るか、または代替的には、ディスプレイ108は、MIPI CSIフォーマットで画素データを受付けるように構成され得る。
図7は、少なくとも1つの実施形態に従った、電子装置100の撮像センサによって取込まれた像をパススルー表示するための動作の例示的な方法700を示す。参照を容易にするために、方法700は、図5および図6の処理システム500の実現例の文脈に記載されている。上述のように、撮像センサ114および116は、一連の画像(すなわちビデオ)の形式で局所環境の像を取込むように動作する。方法700は、各画像ごとにこの順序で電子装置100によって繰返されるプロセスを表現する。したがって、方法700はブロック702から始まり、撮像センサ(たとえば以下の説明の場合、撮像センサ114)によって画像の取込みが開始される。上述のように、センサコントローラ608は、たとえば、リセット信号610のアサーションによってセンサアレイ604をリセットし、次いで、センサアレイ604の画素センサ行の露光を開始するように信号614をアサートすることによって、画像の取込みを開始し得る。
センサアレイ604が露光されていれば、ブロック704において、センサコントローラ608は、READOUT信号612をアサートすることにより、センサアレイ604において取込まれた画像の画素行の読出しを開始する。この信号のアサーションに応じて、アレイ制御論理606は、各画素センサ行に順々に格納されたデータを移出し始める。各画素行が撮像センサ114によって出力されると、各画素行は画素行バッファ503の対応するエントリにおいてバッファリングされる。図6のダブルバッファリング型実現例においては、バッファコントローラ634は、最初に画素行バッファ503のコピー621を選択して、撮像センサ114によって出力された画素行をバッファリングし始める。コピー621のエントリ623がすべて埋められると、バッファコントローラ634が、撮像センサ114から入来する画素行を格納するために画素行バッファ503のコピー622を用いるように切換えられ、次いで、コピー621はそこに格納された画素データを処理するためにコンポジタ502にとって利用可能になる。次いで、コピー622のエントリ623がすべて画素行で満たされると、バッファコントローラ634は、コピー621に格納されたすべての画素行を無効にし、次いで、撮像センサ114から入来する画素行の次のサブセットを格納するためにコピー621を利用可能にする。同時に、バッファコントローラ634はバッファリングされた画素データを処理するために、コピー622をコンポジタ502にとって利用可能にする。画像の画素行のすべてが撮像センサによって出力されてしまうまで、画素行を格納してその後の処理を行なうためにコピー621とコピー622とを交互にするこのプロセスが繰返される。
画像を取込むプロセスよりも前に、または当該プロセス中に、OS540またはアプリケーションプロセッサ504における他のソフトウェアプログラムは、取込まれている画像と組合わせられるべきARオーバーレイを決定し、さらに、ブロック706において、このARオーバーレイを表現するARオーバーレイデータ638をコンポジタ502に提供する。ARオーバーレイの内容は、撮像センサ114によって出力されている画像の取込みまたは表示の時に、電子装置100の位置/配向の予測に少なくとも部分的に依拠する可能性がある。例示するために、データストア542は、電子装置100が動作している局所環境についての仮想物体の3Dモデルを格納し得るとともに、アプリケーションプロセッサ504は、事前に取込まれた像において検出される空間的特徴、ジャイロスコープおよび加速度計の読取り値から得られる配向および運動量の情報などのさまざまな入力に基づいて、来たるべき時間Tにおける電子装置100の位置および配向を予測し得る。さらに、この予測された位置および配向から、アプリケーションプロセッサ504は、3Dモデルのいくつかの仮想物体の表示を、これら仮想物体が予測された位置および配向から現われるのに応じてレンダリングし得る。こうして、アプリケーションプロセッサ504は、このレンダリングされた表示を、時間Tにおいて表示されることになっている取込み画像に組込まれるようにアプリケーションオーバーレイとして提供し得る。
画素行バッファ503のコピーを切換えるバッファコントローラ634が、ブロック708において、コンポジタ502をトリガして、現在バッファリング中の受信画素行から切換えられているとともに画素行バッファ503のコピーに格納された画素データを処理し始める。この処理は、たとえば、バッファリングされた画素の行位置に対応するARオーバーレイの領域を、バッファリングされた画素行に組込むコンポジタ502のオーバーレイ回路類636を含み得る。いくつかの実施形態においては、アプリケーションプロセッサ504は、時間Tよりも十分に前に、時間Tにおいて表示されるべき画像のためのARオーバーレイを決定する。このため、ARオーバーレイがフレームバッファにバッファリングされ得るとともに、コンポジタ502が、取込まれた画像についての対応するバッファリングされた画素行を処理するときに、フレームバッファからARオーバーレイの各行にアクセスし得る。他の実施形態においては、アプリケーションプロセッサ504およびコンポジタ502はアプリケーションプロセッサ504が取込まれた画像のうち対応する画素行の処理と同期してARオーバーレイの各行を提供するように、ARオーバーレイデータを同期させる。いずれの場合にも、同期回路類640は、ARオーバーレイが正確な取込み画像に同期されることを確実にするために、各ARオーバーレイに関連付けられたタイムスタンプ情報にアクセスするように動作する。ブロック708において実行される処理はさらに、たとえば、空間フィルタリング、色フィルタリング、エッジ強調化、色ベース変換などを含み得る。
コンポジタ502が画素行バッファ503の選択されたコピーにあるバッファリングされた画素行の処理を完了した後、ブロック710において、バッファコントローラ634は、各画素行を画素行バッファ503のうち選択されたコピーからディスプレイコントローラ506へと順々に出力し始める。ディスプレイコントローラ506は、次いで、ディスプレイ要素646のアレイ645における対応する行(またはライン)として受取った各画素行を表示するようにディスプレイ装置108を制御する。
取込まれた画像の最後の画素行が撮像センサ114から出力されていれば、プロセスフローはブロック702および706に戻り、取込まれて表示されるべき次の画像のために、方法700が電子装置100によってさらに繰返される。方法700によって実証されるように、電子装置100は、像を取込む撮像センサにラインロックされるディスプレイ装置を用いることによって、取込まれた像のパススルー表示を提供する。画素行バッファ503が、撮像センサ114によって出力された画素行の最初のサブセットで満たされるのに応じて遅れが最初にもたらされるが、この遅れは典型的なヒトの知覚のしきい値に関して問題にはならないほどわずかなものである。たとえば、画素行バッファ503について1080p(1080行)の高精細解像度、60フレーム/秒のリフレッシュレート、および4画素行であると想定すると、画素行は、約15マイクロ秒ごとのレートで出力され、このため、撮像センサ114からの第1の画素行で画素行バッファ503を初期化するために約60マイクロ秒の初期遅れが存在することとなる。これは、表示状況において人にとって認知可能となるべく示される典型的な最短期間よりも短い桁であり、このため、この初期のバッファリング遅れと、コンポジタ502による関連する処理とによってもたらされる遅延はユーザ110にとって感知できないものである。
これらの例は、1つの撮像センサによって取込まれる像のパススルー表示の文脈において記載されているが、多くの実現例においては、2つ以上の撮像センサによって取込まれた像が同時に表示されてもよい。図8および図9は、このような実現例におけるパススルー表示を提供するための例示的な技術を示す。図8は、撮像センサ114、116、画素行バッファ503、505、ディスプレイコントローラ806(ディスプレイコントローラ506の一実施形態)、およびディスプレイ装置808(ディスプレイ装置108の一実施形態)を有する電子装置100の実現例を示す。この実現例においては、ディスプレイコントローラ806は2つのスキャン出力を有し、ディスプレイ装置808は2つのスキャン入力を有しており、これにより、2つの画素ストリームを、独立して、かつ同時にディスプレイ装置808において並べて表示することが可能となる。代替的には、ディスプレイ装置808は、代わりに、各々が単一のスキャン入力を備えている2つの隣り合って並んだディスプレイとして実現されてもよい。このため、撮像センサ114によって出力される画素行ストリーム803のスライディングウィンドウは画素行バッファ503においてバッファリングされ、ディスプレイコントローラ806は、画素行バッファ503からバッファリングされた画素行に連続的にアクセスして、ラスタスキャンオーダーでディスプレイ装置808(または左側のディスプレイ)の左側領域810における対応する行を駆動する。同時に、撮像センサ116によって出力される画素行ストリーム805のスライディングウィンドウが画素行バッファ505においてバッファリングされ、さらに、ディスプレイコントローラ806が、画素行バッファ505からバッファリングされた画素行に連続的にアクセスして、ラスタスキャンオーダーでディスプレイ装置808(または別個の右側ディスプレイ)の右側領域812における対応する行を駆動する。こうして、この実現例においては、ディスプレイ装置808は、撮像センサ114および116の両方からの取込み画像を同時に表示し得る。
図9は、撮像センサ114、116、画素行バッファ503、505、ディスプレイコントローラ906(ディスプレイコントローラ506の一実施形態)、およびディスプレイ装置908(ディスプレイ装置108の一実施形態)を有する電子装置100の代替的な実現例を示す。この実現例においては、ディスプレイコントローラ906は、単一のスキャン入力を有し、ディスプレイ装置908は単一のスキャン入力を有する。そのため、画像カメラ114および116からの1つの画像だけがいずれの所与の時間においてもディスプレイ装置908上に表示され得る。この場合、撮像センサ114および116の画像取込みレートが、ディスプレイ装置908のフレームレートの半分に設定されてもよく、ディスプレイコントローラ906は、撮像センサ114によって取込まれた画像と、撮像センサ116によって取込まれた画像とを交互に表示してもよい。ビュー907によって示されるように、撮像センサ114が時間0において選択されると、撮像センサ114によって出力される画素行ストリーム903は、画素行バッファ503においてバッファリングされ、さらに、ディスプレイコントローラ906は、画素行バッファ503からバッファリングされた画素行に連続的にアクセスして、ラスタスキャンオーダーでディスプレイ装置908の左側領域910における対応する行を駆動する。同時に、ディスプレイコントローラ906は、右側領域912内のディスプレイ要素がインアクティブなままとなるようにディスプレイ装置908を制御し、これにより、黒の画像または空白の画像をユーザの右眼に提示するようにする。その後、ビュー909によって示されるように、撮像センサ114が次に時間1において選択されると、撮像センサ116によって出力される画素行905が画素行バッファ503においてバッファリングされ、さらに、ディスプレイコントローラ906が、画素行バッファ505からバッファリングされた画素行にアクセスして、ラスタスキャンオーダーでディスプレイ装置908の右側領域912における対応する行を駆動する。同時に、ディスプレイコントローラ906は、左側領域910内のディスプレイ要素がインアクティブなままとなるようにディスプレイ装置908を制御し、これにより、黒の画像または空白の画像をユーザの左眼に提示するようにする。こうして、この実現例においては、ディスプレイ装置808は、画像の左眼表示と右眼表示とを交互にして、片方の眼に空白領域または黒色領域が提示されるようにし得る。しかしながら、表示速度が十分に高ければ、空白領域/黒色領域はユーザ110にとって感知不可能となり、このため、ユーザの経験に悪影響を及ぼすことはないだろう。
撮像センサにおいて見出されるようなレンズまたは頭部装着型ディスプレイ(HMD)実現例の接眼レンズにおいて見出されるレンズなどの光学レンズは、典型的には、バレル歪み、ピンクッション歪みまたは複雑な歪み(「マスタッシュ歪み」とも称される)などの何らかの形式の空間歪みを表示工程にもたらす。従来より、ディスプレイシステムは、バッファリングされた画像に存在する空間歪み、またはバッファリングされた画像が接眼鏡のレンズを介して視認されるときにもたらされるであろう空間歪みを補償するために、各々のバッファリングされた画像上で1つ以上の歪曲変形を実行することによって、これらの空間歪みを少なくとも部分的に補正することができる。しかしながら、上述のパススルー表示プロセスを用いることにより、このような空間歪みの完全な補正が妨げられる可能性がある。なぜなら、歪曲変形のせいで、バッファリングされるよりも多くの画素行を十分に効果的にする必要があるからであるか、または、画素行が表示される前にバッファリングされる時間では、歪曲変形を適用する時間が不十分であるからである。したがって、いくつかの実施形態においては、電子装置100のHMDシステム実現例におけるレンズ、または表示工程における少なくとも2つのレンズを用いる他の実現例におけるレンズは、当該工程におけるレンズのうちの1つによってもたらされる空間歪みが当該工程における他のレンズによってもたらされる相補的な空間歪みによって少なくとも部分的に訂正または補償されるように、選択され得る。
図10は、この相補的なレンズアプローチについての2つの実現例を示す。両方のシナリオについて、パススルー表示システムのディスプレイ経路1000は、撮像センサ1002を有する。撮像センサ1002は、光学カメラレンズ1004(撮像センサ114および116の一実施形態)と、撮像センサ1002によって取込まれた像を表示するためのディスプレイ装置1008(ディスプレイ装置108の一実施形態)と、ユーザが表示された像をみるのに用いる接眼レンズ1006(接眼レンズ304および306の一実施形態)とを備える。
図10の上半分に示されるシナリオ1001においては、広角レンズは、たとえば、マシン・ビジョンの用途をサポートする撮像センサ1002の企図された使用のために、カメラレンズ1004として実現するために選択される。広角レンズがバレル歪みをもたらす傾向があるため、このシナリオにおいて撮像センサ1002によって取込まれた像は、取込まれた像にバレル歪みを伝える可能性が高くなり、これにより、取込まれた像の表示はバレル歪みの影響も呈するだろう。画像におけるバレル歪みは、ピンクッション歪みをもたらすレンズを介して画像を視認することによって、少なくとも部分的に補正され得る。すなわち、ピンクッション歪みはバレル歪みに対して相補的であり、その逆もまた同様に相補的である。このため、カメラレンズ1004によってもたらされるバレル歪みを光学的に補償するために、相補的な程度のピンクッション歪みをもたらすレンズを接眼レンズ1006として実現するために選択することができる。ユーザが接眼レンズ1006を介して表示画像を観察すると、カメラレンズ1004からの表示画像におけるバレル歪みは、接眼レンズ1006によってもたらされるピンクッション歪みによって少なくとも部分的に補正される。
図10の下半分に示されるシナリオ1003においては、広角レンズは、接眼レンズ1006とディスプレイ装置1008との間に焦点距離があるせいで接眼レンズ1006として実現するために選択される。上述のように、広角レンズはバレル歪みを起こしやすい。このため、如何なる空間歪みもないディスプレイ装置1008上に表示された画像は、接眼レンズ1006を介して見たときにバレル歪みを呈することとなる。このため、表示経路1000の後端において接眼レンズ1006によってもたらされるバレル歪みを光学的に補償するために、ピンクッション歪みをもたらすレンズは、カメラレンズ1004として実現するために選択され得る。このようにして、カメラレンズ1004は取込まれた画像を「予め歪ませる」。この予歪は、接眼レンズ1006によってもたらされる相補的なバレル歪みによって取消されるかまたは補正される。
上述された創造的な機能の多く、および創造的な原理の多くは、特定用途向け集積回路(application specific integrated circuit:ASIC)などの集積回路(IC)を備えた実現例または当該ICにおける実現例に十分に適している。当業者であれば、場合によっては、たとえば可用時間、現在の技術および経済上の考慮事項によって著しい労力および多くの設計上の選択が動機付けされるにもかかわらず、この明細書中に開示された概念および原理によって誘導されると、最小限の実験でこのようなICを容易に作製することができるであろうことが予想される。したがって、本開示に従った原理および概念を不明瞭にする如何なるリスクをも最小限にして簡潔にするために、このようなソフトウェアおよびICのさらなる説明は、もしあったとしても、好ましい実施形態の範囲内の原理および概念に関する要点に制限されるだろう。
この文書においては、第1および第2などの関係語は、このような実体または動作間の実際のこのような関係または順序を必ずしも必要とするかまたは示唆することなく、単に1つの実体または動作を別の実体または動作から区別するために用いられ得るだけに過ぎない。「含む」、「含んでいる」という語またはこれらの他のいずれの変形例も、非排他的包含をカバーするよう意図されたものであり、このため、要素のリストを含むプロセス、方法、物品または装置がそれらの要素だけを含むのではなく、明確に列挙されていない他の要素またはこのようなプロセス、方法、物品または装置に固有のものではない他の要素を含み得ることとなる。「(1つの)…を含む」で始まる要素は、それ以上の制約なしで、その要素を含むプロセス、方法、物品または装置における付加的な同一の要素の存在を排除するものではない。この明細書中において用いられている「別の」という語は、少なくとも第2またはそれ以上のものとして定義される。この明細書中において用いられている「含む」および/または「有する」という語は含むことを意味するものとして定義される。この明細書中において電気光学技術に関して用いられている「連結される」という語は接続されることを意味するものとして定義されているが、必ずしも直接的ではなく、必ずしも機械的ではない。この明細書中において用いられている「プログラム」という語は、コンピュータシステム上で実行されるように設計された一連の命令として定義される。「プログラム」または「コンピュータプログラム」は、コンピュータシステム上で実行されるように設計されたサブルーチン、機能、手順、物の方法、物の実現例、実行可能なアプリケーション、アプレット、サーブレット、ソースコード、オブジェクトコード、共有ライブラリ/ダイナミックロードライブラリ、および/または、他の一連の命令を含み得る。
明細書および図面は例としてのみ見なされるべきであり、このため、開示の範囲は、添付の特許請求の範囲およびその同等例によってのみ限定されるように意図されている。概略的な記述において上述されていた動作または要素のすべてが必要であるとは限らないこと、特定の動作または装置の一部が必要とされ得ないこと、および、記載されたものに加えて、1つ以上のさらなる動作が実行され得るかまたは要素が含まれ得ることに留意されたい。さらに、動作が列挙されている順序は、必ずしも、それら動作が実行される順序ではない。上述のフローチャートのステップは特に指定のない限り、如何なる順序であってもよく、ステップは、実現例に応じて、削除されてもよく、繰返されてもよく、および/または、追加されてもよい。また、概念は具体的な実施形態に関連付けて説明されてきた。しかしながら、当業者であれば、添付の特許請求の範囲に記載される本開示の範囲から逸脱することなく、さまざまな変更および変形が実施可能であることを認識する。したがって、明細書および図は限定的ではなく例示的な意味で考慮されるべきであり、このようなすべての変更例は本開示の範囲内に含まれるように意図されている。
利益、他の利点および問題の解決策が具体的な実施形態に関連付けて上述されてきた。しかしながら、利益、利点、問題の解決策、およびいずれかの利益、利点または解決策をもたらし得るかまたはより顕著にし得るいずれかの特徴は、いずれかの請求項またはすべての請求項の重要な特徴、必要な特徴または本質的な特徴として解釈されるべきではない。

Claims (26)

  1. 第1の撮像センサによって取込まれた第1の画像の画素行の第1のセットの各画素行を前記第1の撮像センサから連続的に出力するステップと、
    前記第1の画像の第1の画素行を表わす画素行を、前記第1の画像の第2の画素行が前記第1の撮像センサによって出力される前に、ディスプレイ装置において表示するステップとを含む、方法。
  2. 画素行の前記第1のセットのサブセットをバッファにバッファリングするステップをさらに含み、前記サブセットは前記第1の画素行を含み、さらに、
    前記バッファにおける画素行の前記バッファリングされたサブセットを修正して、前記第1の画素行を表わす前記画素行を生成するステップを含み、
    前記第1の画素行を表わす前記画素行を表示するステップは、前記バッファから前記第1の画素行を表わす前記画素行にアクセスするステップと、前記アクセスされた画素行で、前記ディスプレイ装置の対応する行を駆動するステップとを含む、請求項1に記載の方法。
  3. 画素行の前記バッファリングされたサブセットを修正するステップは、
    画素行の前記第1のサブセットのうち1つ以上の画素行についての拡張現実オーバーレイ情報を受取るステップと、
    前記拡張現実オーバーレイ情報に基づいて画素行の前記バッファリングされたサブセットを修正するステップとを含む、請求項2に記載の方法。
  4. 画素行の前記バッファリングされたサブセットを修正するステップは、
    画素行の前記バッファリングされたサブセット上で1つ以上のフィルタリングプロセスを実行するステップを含む、請求項2に記載の方法。
  5. 1つ以上のフィルタリングプロセスを実行するステップは、
    空間フィルタリングプロセスおよび色フィルタリングプロセスのうち少なくとも1つを実行するステップを含む、請求項4に記載の方法。
  6. 前記第1の画素行を画素行バッファにバッファリングするステップと、
    前記第1の画素行の位置に関連付けられた拡張現実オーバーレイ情報に基づいて、前記画素行バッファにおいて前記第1の画素行を修正して、前記第1の画素行を表わす前記画素行を生成するステップとをさらに含み、
    前記第1の画素行を表わす前記画素行を表示するステップは、前記バッファから前記第1の画素行を表わす前記画素行にアクセスして、前記アクセスされた画素行で前記ディスプレイ装置を駆動するステップを含む、請求項1に記載の方法。
  7. 第2の画素行を表わす画素行を、前記第1の画像の第3の画素行が前記第1の撮像センサによって出力されるよりも前に、前記ディスプレイ装置において表示するステップをさらに含む、請求項1に記載の方法。
  8. 第2の撮像センサによって取込まれた第2の画像の画素行の第2のセットのうち各画素行を前記第2の撮像センサから連続的に出力するステップと、
    前記第2の画像の第3の画素行を表わす画素行を、前記第2の画像の第4の画素行が前記第2の撮像センサによって出力される前に、前記ディスプレイ装置において表示するステップとを含む、請求項1に記載の方法。
  9. 前記第1の画像は前記ディスプレイの第1の領域において表示され、
    前記第2の画像は、前記第1の画像の表示と同時に前記ディスプレイの第2の領域において表示される、請求項8に記載の方法。
  10. 前記第1の画像は第1の時間において前記ディスプレイの第1の領域において表示され、
    前記第2の画像は、前記第1の時間とは異なる第2の時間において前記ディスプレイの第2の領域において表示され、
    前記第2の領域は前記第1の時間においてインアクティブであり、
    前記第1の領域は前記第2の時間においてインアクティブである、請求項8に記載の方法。
  11. 第1の取込まれた画像の画素行を連続的に出力するための出力を有する第1の撮像センサと、
    前記第1の撮像センサの前記出力に連結されたディスプレイコントローラとを含み、前記ディスプレイコントローラは、前記第1の取込まれた画像の最後の画素行が前記第1の撮像センサによって出力される前に、ディスプレイ装置において、前記第1の取込まれた画像の画素行を連続的に表示し始めるためのものである、装置。
  12. 前記第1の撮像センサの前記出力に連結された画素行バッファをさらに含み、前記画素行バッファは、前記第1の取込まれた画像の前記画素行のサブセットをバッファにバッファリングするための複数のエントリを有し、さらに、
    前記画素行バッファに連結されたコンポジタを含み、前記コンポジタは、画素行の前記バッファリングされたサブセットを修正して、画素行の修正済みサブセットを生成するためのものであり、
    前記ディスプレイコントローラは、前記画素行バッファに連結されており、前記ディスプレイコントローラは、前記画素行バッファから画素行の前記修正済みサブセットの各画素行に連続的にアクセスすることによって、前記第1の取込まれた画像の前記画素行を連続的に表示するためのものであり、かつ、前記アクセスされた画素行で、前記ディスプレイ装置の対応する行を駆動するためのものである、請求項11に記載の装置。
  13. 前記コンポジタはさらに、画素行の前記サブセットのうち1つ以上の画素行についての拡張現実オーバーレイ情報を受取るためのものであり、
    前記コンポジタは、前記拡張現実オーバーレイ情報に基づいて画素行の前記バッファリングされたサブセットを修正するためのものである、請求項12に記載の装置。
  14. 前記コンポジタは、画素行の前記バッファリングされたサブセット上において1つ以上のフィルタリングプロセスを実行することによって、画素行の前記バッファリングされたサブセットを修正するためのものである、請求項12に記載の装置。
  15. 前記1つ以上のフィルタリングプロセスは、空間フィルタリングプロセスおよび色フィルタリングプロセスのうち少なくとも1つを含む、請求項14に記載の装置。
  16. 画素行バッファをさらに含み、前記第1の取込まれた画像の第1の画素行が前記画素行バッファにバッファリングされ、さらに、
    前記画素行バッファに連結されたコンポジタを含み、前記コンポジタは、前記第1の画素行の位置に関連付けられた拡張現実オーバーレイ情報に基づいて前記画素行バッファにおいて前記第1の画素行を修正して、前記第1の画素行を表わす画素行を生成するためのものであり、
    前記ディスプレイコントローラは、前記画素行バッファに連結されており、前記ディスプレイコントローラは、前記バッファから前記第1の画素行を表わす前記画素行にアクセスすることによって前記第1の画素行を表わす前記画素行を表示するためのものであり、かつ、前記アクセスされた画素行で前記ディスプレイ装置を駆動するためのものである、請求項11に記載の装置。
  17. 前記ディスプレイコントローラはさらに、第2の画素行を表わす画素行を、前記第1の取込まれた画像の第3の画素行が前記第1の撮像センサによって出力される前に、前記ディスプレイ装置において表示するためのものである、請求項11に記載の装置。
  18. 第2の取込まれた画像の画素行を連続的に出力するための出力を有する第2の撮像センサをさらに含み、
    前記ディスプレイコントローラは、前記第2の撮像センサに連結されており、前記ディスプレイコントローラはさらに、前記第2の取込まれた画像の最後の画素行が前記第2の撮像センサによって出力される前に、前記ディスプレイ装置において、前記第2の取込まれた画像の画素行を連続的に表示し始めるためのものである、請求項11に記載の装置。
  19. 前記ディスプレイコントローラは、前記ディスプレイの第1の領域において前記第1の取込まれた画像を表示して、前記第1の取込まれた画像の表示と同時に、前記ディスプレイの第2の領域において前記第2の取込まれた画像を表示するためのものである、請求項18に記載の装置。
  20. 前記ディスプレイコントローラは、第1の時間において前記ディスプレイの第1の領域において前記第1の取込まれた画像を表示するためのものであり、
    前記ディスプレイコントローラは、前記第1の時間とは異なる第2の時間において、前記ディスプレイの第2の領域において前記第2の取込まれた画像を表示するためのものであり、
    前記第2の領域は前記第1の時間においてインアクティブであり、
    前記第1の領域は前記第2の時間においてインアクティブである、請求項18に記載の装置。
  21. 前記ディスプレイと位置合わせされた接眼レンズをさらに含み、前記接眼レンズは第1のタイプの空間歪みをもたらし、
    前記第1の撮像センサは、前記第1のタイプの空間歪みに対して相補的な第2のタイプの空間歪みをもたらすレンズを含む、請求項11に記載の装置。
  22. 請求項11に記載の装置を含む頭部装着型ディスプレイシステム。
  23. 装置であって、
    第1のタイプの空間歪みをもたらすレンズを有する撮像センサと、
    前記撮像センサに連結されたディスプレイ装置とを含み、前記ディスプレイ装置は、前記撮像センサによって取込まれるとともに前記第1のタイプの空間歪みを有する像を表示するためのものであり、前記装置はさらに、
    前記ディスプレイと位置合わせされた接眼レンズを含み、前記接眼レンズは、前記第1のタイプの空間歪みを補償する第2のタイプの空間歪みをもたらす、装置。
  24. 前記第1のタイプの空間歪みはバレル歪みであり、前記第2のタイプの空間歪みはピンクッション歪みである、請求項23に記載の装置。
  25. 前記第1のタイプの空間歪みはピンクッション歪みであり、前記第2のタイプの空間歪みはバレル歪みである、請求項23に記載の装置。
  26. 請求項23に記載の装置を含む頭部装着型ディスプレイ。
JP2017550729A 2015-05-04 2016-05-03 取込まれた像のパススルー表示 Pending JP2018523142A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201562156815P 2015-05-04 2015-05-04
US62/156,815 2015-05-04
PCT/US2016/030556 WO2016179164A1 (en) 2015-05-04 2016-05-03 Pass-through display of captured imagery

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020201998A Division JP2021060590A (ja) 2015-05-04 2020-12-04 取込まれた像のパススルー表示

Publications (1)

Publication Number Publication Date
JP2018523142A true JP2018523142A (ja) 2018-08-16

Family

ID=56024392

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2017550729A Pending JP2018523142A (ja) 2015-05-04 2016-05-03 取込まれた像のパススルー表示
JP2020201998A Pending JP2021060590A (ja) 2015-05-04 2020-12-04 取込まれた像のパススルー表示

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2020201998A Pending JP2021060590A (ja) 2015-05-04 2020-12-04 取込まれた像のパススルー表示

Country Status (8)

Country Link
US (1) US11024082B2 (ja)
EP (1) EP3292542A1 (ja)
JP (2) JP2018523142A (ja)
KR (1) KR102534698B1 (ja)
CN (1) CN107431798A (ja)
DE (1) DE112016002043T5 (ja)
GB (1) GB2558345B (ja)
WO (1) WO2016179164A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020136856A (ja) * 2019-02-18 2020-08-31 キヤノン株式会社 同期制御装置、同期制御方法、及びプログラム

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016179164A1 (en) 2015-05-04 2016-11-10 Google Inc. Pass-through display of captured imagery
US20170115489A1 (en) * 2015-10-26 2017-04-27 Xinda Hu Head mounted display device with multiple segment display and optics
EP3943888A1 (en) 2016-08-04 2022-01-26 Reification Inc. Methods for simultaneous localization and mapping (slam) and related apparatus and systems
CN108346398A (zh) * 2017-01-24 2018-07-31 上海珏芯光电科技有限公司 显示驱动平板装置其驱动方法
WO2018148146A1 (en) 2017-02-10 2018-08-16 Gentex Corporation Vehicle display comprising projection system
US20180239143A1 (en) * 2017-02-20 2018-08-23 Google Llc Protecting a display from external light sources
WO2019012535A1 (en) * 2017-07-12 2019-01-17 Guardian Optical Technologies Ltd. SYSTEMS AND METHODS FOR ACQUIRING INFORMATION FROM AN ENVIRONMENT
KR102473840B1 (ko) 2017-11-21 2022-12-05 삼성전자주식회사 디스플레이 드라이버 및 모바일 전자 기기
US10559276B2 (en) 2018-02-03 2020-02-11 Facebook Technologies, Llc Apparatus, system, and method for mitigating motion-to-photon latency in head-mounted displays
EP3522150A3 (en) * 2018-02-03 2020-01-01 Facebook Technologies, LLC Apparatus, system, and method for mitigating motion-to-photon latency in head-mounted displays
US10706813B1 (en) 2018-02-03 2020-07-07 Facebook Technologies, Llc Apparatus, system, and method for mitigating motion-to-photon latency in head-mounted displays
US10827164B2 (en) * 2018-03-01 2020-11-03 Google Llc Active LCD shutters for virtual and augmented reality low persistence
KR102582961B1 (ko) * 2018-03-28 2023-09-26 삼성전자주식회사 디스플레이를 보호하는 웨어러블 장치 및 그 방법
US10678325B2 (en) 2018-05-22 2020-06-09 Facebook Technologies, Llc Apparatus, system, and method for accelerating positional tracking of head-mounted displays
US11256097B2 (en) * 2018-05-30 2022-02-22 Sony Interactive Entertainment Inc. Image generation apparatus, image display system, image generation method, and computer program
KR102558106B1 (ko) * 2018-05-30 2023-07-21 엘지디스플레이 주식회사 디스플레이 패널, 디스플레이 장치 및 가상 현실/증강 현실 장치
US11354787B2 (en) 2018-11-05 2022-06-07 Ultrahaptics IP Two Limited Method and apparatus for correcting geometric and optical aberrations in augmented reality
US10638165B1 (en) * 2018-11-08 2020-04-28 At&T Intellectual Property I, L.P. Adaptive field of view prediction
US11126001B2 (en) * 2019-03-29 2021-09-21 Sony Interactive Entertainment Inc. Image generating apparatus, head-mounted display, content processing system and image displaying method
US11500226B1 (en) * 2019-09-26 2022-11-15 Scott Phillip Muske Viewing area management for smart glasses
US11567323B2 (en) * 2019-12-01 2023-01-31 Vision Products, Llc Partial electronic see-through head-mounted display
US20210192681A1 (en) * 2019-12-18 2021-06-24 Ati Technologies Ulc Frame reprojection for virtual reality and augmented reality
US11012677B1 (en) * 2020-06-15 2021-05-18 Microsoft Technology Licensing, Llc Systems and methods for correcting rolling shutter artifacts
US20230237730A1 (en) * 2022-01-21 2023-07-27 Meta Platforms Technologies, Llc Memory structures to support changing view direction
US11887513B2 (en) * 2022-02-02 2024-01-30 Google Llc Case for smartglasses with calibration capabilities
WO2023157774A1 (ja) * 2022-02-21 2023-08-24 国立大学法人東海国立大学機構 電子式ゴーグル
WO2024064059A1 (en) * 2022-09-23 2024-03-28 Apple Inc. Synchronization circuitry for reducing latency associated with image passthrough

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06509185A (ja) * 1991-07-03 1994-10-13 サン、マイクロシステムズ、インコーポレーテッド 仮想イメージ表示装置
JP2002354505A (ja) * 2001-05-29 2002-12-06 Vstone Kk 立体視システム
JP2009025919A (ja) * 2007-07-17 2009-02-05 Canon Inc 画像処理装置、画像処理方法
WO2013125138A1 (ja) * 2012-02-22 2013-08-29 ソニー株式会社 表示装置、画像処理装置及び画像処理方法、並びにコンピューター・プログラム
JP2014511606A (ja) * 2011-02-25 2014-05-15 フオトニス・ネザーランズ・ベー・フエー リアルタイムの画像の取得および表示
JP2014093705A (ja) * 2012-11-06 2014-05-19 Seiko Epson Corp 撮影装置、撮影装置の制御方法
US20140240469A1 (en) * 2013-02-28 2014-08-28 Motorola Mobility Llc Electronic Device with Multiview Image Capture and Depth Sensing
CN204101815U (zh) * 2014-09-28 2015-01-14 光场视界(北京)科技有限公司 一种基于光学和图像畸变互补偿的虚拟眼镜
US20150029218A1 (en) * 2013-07-25 2015-01-29 Oliver Michael Christian Williams Late stage reprojection

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100636090B1 (ko) * 1999-06-11 2006-10-19 삼성전자주식회사 액정 프로젝션 시스템
JP4693552B2 (ja) * 2005-08-30 2011-06-01 キヤノン株式会社 表示装置、制御装置、及び制御方法
JP4912141B2 (ja) 2006-12-26 2012-04-11 キヤノン株式会社 撮像表示装置、撮像表示制御方法及びシステム
EP2502223A4 (en) * 2009-11-21 2016-05-18 Douglas Peter Magyari HEAD-MOUNTED DISPLAY DEVICE
US8896668B2 (en) 2010-04-05 2014-11-25 Qualcomm Incorporated Combining data from multiple image sensors
JP6003053B2 (ja) 2011-12-14 2016-10-05 日立化成株式会社 半導体パッケージ用プリント配線板の保護膜用感光性樹脂組成物及び半導体パッケージ
US9230473B2 (en) * 2013-06-24 2016-01-05 Microsoft Technology Licensing, Llc Dual duty cycle OLED to enable dynamic control for reduced motion blur control with constant brightness in augmented reality experiences
WO2016179164A1 (en) 2015-05-04 2016-11-10 Google Inc. Pass-through display of captured imagery

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06509185A (ja) * 1991-07-03 1994-10-13 サン、マイクロシステムズ、インコーポレーテッド 仮想イメージ表示装置
JP2002354505A (ja) * 2001-05-29 2002-12-06 Vstone Kk 立体視システム
JP2009025919A (ja) * 2007-07-17 2009-02-05 Canon Inc 画像処理装置、画像処理方法
JP2014511606A (ja) * 2011-02-25 2014-05-15 フオトニス・ネザーランズ・ベー・フエー リアルタイムの画像の取得および表示
WO2013125138A1 (ja) * 2012-02-22 2013-08-29 ソニー株式会社 表示装置、画像処理装置及び画像処理方法、並びにコンピューター・プログラム
JPWO2013125138A1 (ja) * 2012-02-22 2015-07-30 ソニー株式会社 表示装置、画像処理装置及び画像処理方法、並びにコンピューター・プログラム
JP2014093705A (ja) * 2012-11-06 2014-05-19 Seiko Epson Corp 撮影装置、撮影装置の制御方法
US20140240469A1 (en) * 2013-02-28 2014-08-28 Motorola Mobility Llc Electronic Device with Multiview Image Capture and Depth Sensing
US20150029218A1 (en) * 2013-07-25 2015-01-29 Oliver Michael Christian Williams Late stage reprojection
CN204101815U (zh) * 2014-09-28 2015-01-14 光场视界(北京)科技有限公司 一种基于光学和图像畸变互补偿的虚拟眼镜

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020136856A (ja) * 2019-02-18 2020-08-31 キヤノン株式会社 同期制御装置、同期制御方法、及びプログラム
JP7242332B2 (ja) 2019-02-18 2023-03-20 キヤノン株式会社 同期制御装置、同期制御方法、及びプログラム

Also Published As

Publication number Publication date
CN107431798A (zh) 2017-12-01
WO2016179164A1 (en) 2016-11-10
KR20180002607A (ko) 2018-01-08
US20160328882A1 (en) 2016-11-10
JP2021060590A (ja) 2021-04-15
GB2558345B (en) 2021-05-12
GB2558345A (en) 2018-07-11
US11024082B2 (en) 2021-06-01
DE112016002043T5 (de) 2018-04-19
KR102534698B1 (ko) 2023-05-19
EP3292542A1 (en) 2018-03-14
GB201715308D0 (en) 2017-11-08

Similar Documents

Publication Publication Date Title
KR102534698B1 (ko) 캡처된 이미지에 대한 패스-스루 디스플레이
CN109146965B (zh) 信息处理装置、计算机可读介质和头戴式显示装置
JP6514826B2 (ja) ピクセル速度を用いた電子ディスプレイ安定化
CN109565551B (zh) 对齐于参考帧合成图像
US11049476B2 (en) Minimal-latency tracking and display for matching real and virtual worlds in head-worn displays
US10979612B2 (en) Electronic device comprising plurality of cameras using rolling shutter mode
WO2019040763A1 (en) SPACE-TIME VIEW SYNTHESIS FOR ENHANCED VISUALIZATION EXPERIENCES IN COMPUTER ENVIRONMENTS
US9767612B2 (en) Method, system and apparatus for removing a marker projected in a scene
US20150015671A1 (en) Method and system for adaptive viewport for a mobile device based on viewing angle
JP2018511098A (ja) 複合現実システム
JP2019030007A (ja) 複数のカメラを用いて映像を取得するための電子装置及びこれを用いた映像処理方法
US11256372B1 (en) Method and apparatus for creating an adaptive Bayer pattern
WO2014160342A1 (en) Low latency stabilization for head-worn displays
US20180288387A1 (en) Real-time capturing, processing, and rendering of data for enhanced viewing experiences
US20120050464A1 (en) Method and system for enhancing 3d effects for 3d video rendering
US11044398B2 (en) Panoramic light field capture, processing, and display
US10321126B2 (en) User input device camera
US11694352B1 (en) Scene camera retargeting
US11720996B2 (en) Camera-based transparent display
Zheng Spatio-temporal registration in augmented reality
JP2013201688A (ja) 画像処理装置、画像処理方法および画像処理プログラム
KR101414362B1 (ko) 영상인지 기반 공간 베젤 인터페이스 방법 및 장치
CN113890984B (zh) 拍照方法、图像处理方法和电子设备
US10778893B2 (en) Detection device, display device and detection method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171213

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190521

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190819

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200402

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200804

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20201204

C116 Written invitation by the chief administrative judge to file amendments

Free format text: JAPANESE INTERMEDIATE CODE: C116

Effective date: 20201215

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20201215

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20210421

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20210907

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20211109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211207

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20220118

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20220222

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20220222