JP2023174650A - 拡張現実感のための装置および方法 - Google Patents

拡張現実感のための装置および方法 Download PDF

Info

Publication number
JP2023174650A
JP2023174650A JP2023111626A JP2023111626A JP2023174650A JP 2023174650 A JP2023174650 A JP 2023174650A JP 2023111626 A JP2023111626 A JP 2023111626A JP 2023111626 A JP2023111626 A JP 2023111626A JP 2023174650 A JP2023174650 A JP 2023174650A
Authority
JP
Japan
Prior art keywords
image
display
database
see
accessory
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2023111626A
Other languages
English (en)
Other versions
JP7507522B2 (ja
Inventor
ラピドット、ズヴィ
Lapidot Zvi
ティロシュ、イユード
Tirosh Ehud
アーノン、オーデッド
Arnon Oded
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Veeride Ltd
Original Assignee
Veeride Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Veeride Ltd filed Critical Veeride Ltd
Publication of JP2023174650A publication Critical patent/JP2023174650A/ja
Application granted granted Critical
Publication of JP7507522B2 publication Critical patent/JP7507522B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0149Head-up displays characterised by mechanical features
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/0202Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
    • H04M1/026Details of the structure or mounting of specific components
    • H04M1/0272Details of the structure or mounting of specific components for a projector or beamer module assembly
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/011Head-up displays characterised by optical features comprising device for correcting geometrical aberrations, distortion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/0202Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
    • H04M1/0254Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets comprising one or a plurality of mechanically detachable modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/21Combinations with auxiliary equipment, e.g. with clocks or memoranda pads
    • H04M1/215Combinations with auxiliary equipment, e.g. with clocks or memoranda pads by non-intrusive coupling means, e.g. acoustic couplers

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Signal Processing (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Processing Or Creating Images (AREA)
  • Telephone Function (AREA)
  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】携帯装置で撮影された画像に生成されたコンテンツの画像を重畳する。【解決手段】携帯装置100によって生成されたコンテンツを現実に投影するためのアクセサリであって、携帯装置に機械的に取り付けるハウジングと、ハウジング内の観察光学素子108と、を備え、ハウジングは、シースルーディスプレイを介して、携帯装置によって生成されたコンテンツの画像を現実に投影する。いくつかのアプリケーションでは、携帯装置はスマートフォンである。【選択図】図5b

Description

本発明は、スマートフォンを用いた拡張現実アプリケーションに関する。
拡張現実感は、現実を直接または間接的に見ることを使用し、現実は、追加の情報、通常はコンピュータ生成された情報を現実に重ね合わせることによってさらに増強される。現実を直接見ることを使用する装置は、典型的にはシースルーディスプレイ(See-Through Display)、すなわち半透明の鏡(通常コンバイナ(Combiner)と呼ばれる)を含み、当該半透明の鏡を通して現実を観察し、重ね合わせた情報と組み合わせることができる。
これらの装置は典型的にはGPSのような位置決め要素と、ジャイロ、加速度計および磁力計を更に含むIMU(Inertial Measurement Unit:慣性測定装置)のような方向要素とを含む。
そのような拡張現実感装置の例は、HMD(Head Mounted Display:ヘッドマウントディスプレイ)、例えば、マイクロソフトのHoloLensである。これらの装置は、典型的には、通常のアイウェアと比較してかさばり、重く、快適性が低く、審美性が低く、高価である。これらの欠点は、HMDが広く消費者に受け入れられるのを妨げる主な障害の1つである。
これらの欠点を克服するために、拡張現実アプリケーションのために携帯スマートフォンを使用する試みがなされている。携帯スマートフォンには、カメラ、GPS、IMU、ディスプレイ、プロセッサ、およびワイヤレス接続が内蔵されており、消費者製品として広く使用されている。そのため、携帯スマートフォンは拡張現実感アプリケーションのプラットフォームとして適している。それにもかかわらず、携帯スマートフォンはそれらの表示画面上で現実の間接的な観察のみを可能にする。したがって、拡張現実感のためのスマートフォンアプリケーションが使用されるとき、重ね合わされた情報は、現実そのものではなく、スマートフォンカメラによって取得された現実の画像と組み合わされる。
拡張現実のための携帯スマートフォンアプリケーションは、例えば、LayarおよびMetaioによって開発されたアプリケーションを含む。
現実を見ることは間接的である、すなわち現実自体とは対照的に現実の画像のみがスマートフォンの表示画面上に現れるので、上述のような携帯スマートフォンアプリケーションは、表示画像が2Dであるので、カメラの視野に依存する重大な欠点を有しており、このようなものは、距離感も、オブジェクトのサイズ感も与えず、方向付けを非常に困難にする。
スマートフォン上で拡張現実を提供するための別の試みは、透明な表示スクリーンを有するスマートフォンの導入である。例えば、レノボのZuk(http://gadgets.ndtv.com/mobiles/news/lenovos-zuk-unveils-transparent-display-smartphone-prototype-728043)である。このアプリケーションでは、追加情報が表示画面に表示されている間、ユーザは透明なスクリーンを通して現実を見ることができる。主な欠点は、視差のために表示された情報を風景に合わせることができない、すなわち、スマートフォンが安定していてユーザが頭を動かすと、風景上の注釈の位置が変わることである。これは、スマートフォンのディスプレイが近くにある(通常23cmから30cm)のに対し、風景が遠い(通常は数十メートルから数百メートル)ためである。
レノボのZuk(http://gadgets.ndtv.com/mobiles/news/lenovos-zuk-unveils-transparent-display-smartphone-prototype-728043)
本発明は、それ自体知られているように通常の携帯スマートフォンを拡張現実デバイスとして使用することによって上記の欠点を克服するが、現実の画像上というよりむしろ現実自体の上に重ね合わされる情報を組み合わせることのさらなる強化を伴う。このようにして、本発明は、以下で明らかになるように、重ね合わせを視差なしで組み合わせることを提供する。
本発明による拡張現実システムはまた、スマートフォン位置、カメラの向き、およびオブジェクト画像を使用して、建物などのユーザによる現実のオブジェクトの指定、およびストリートビューなどのデータベースからのその位置の抽出を可能にする。
同様に、オブジェクトの位置が分かっているとき、システムはユーザにオブジェクトを向けてそのオブジェクトを指定することができる。
どちらの場合も、オブジェクトが指定されると、そのオブジェクトの高解像度画像をストリートビューなどのデータベースから抽出できる。
オブジェクトの高解像度画像がデータベースから抽出されると、その画像を現実に重ね合わせることができ、ユーザによる電子ズームインおよびズームアウト操作を実行することが可能になる。
そのようなデータベースがない場合、ディープラーニング(すなわち、ヤン・ルクン、ヨシュア・ベンギオ&ジェフリー・ヒントン、「ディープラーニング」、ネイチャー、vol.521、pp436‐444,2015)のような既知のトレーニング方法を使用して、画像に基づいて既知の座標に頼ることなく、オブジェクトの画像から、オブジェクトまでの距離を決定/推定できる。そのような方法を訓練するために、訓練アルゴリズムは、各画像内の少なくとも1つの目標位置への既知の深度(カメラからの画像内の点の距離)を有する大きなデータセットの画像が与えられる。このトレーニングセットから、アルゴリズムは、新しい画像内の所望の位置への距離推定のためのパラメータのセットを自動的に決定する。
本発明を理解し、実際にどのように実施することができるかを見るために、添付の図面を参照しながら、非限定的な例として実施形態を説明する。
ビューワが機械的に取り付けられているスマートフォンを示す本発明の概略図である。 本発明の第1の実施形態によるビューワの機能を示すブロック図である。 本発明の第2の実施形態による、スマートフォンの表示画面に対するビューワの光学部品を概略的に示す図である。 第2の実施形態による、関心領域に対応するスマートフォンの表示画面の一部を概略的に示す図である。 第2の実施形態による、スマートフォンに取り付けられたビューワの絵図である。 スマートフォンの表示画面に関連してビューワの光学部品を絵で示している。 本発明の第3の実施形態を概略的に示すブロック図である。 本発明の異なる実施形態に従ってオブジェクトを指定することができる方法を簡潔化した流れ図である。
いくつかの実施形態の以下の説明では、2つ以上の図に現れるかまたは類似の機能を共有する同一の構成要素は、同一の参照符号によって参照される。
図1は、ビューワ2(アクセサリを構成する)が機械的に取り付けられているスマートフォン100を示す本発明の実施形態を概略的に示す。ビューワ2は、図2に示すように、光学エンジン22に結合されたコントローラ21を含むハウジング102を含み、光学エンジン22は、任意選択でLumus OE-32とすることができる(http://lumus-optical.com/#plx_procucts_sectionを参照)。光学エンジン22は、部分的に透明であるシースルーディスプレイ(コンバイナ)23を有する。これにより、ユーザは、現実の風景をシースルーディスプレイ23を通して見ることができる。シースルーディスプレイ23はまた、スマートフォン100によって生成されたオーバーレイ情報を風景の上に投影するためにも使用される。
ビューア2の第1の実施形態は、図2にさらに詳細に示されている。コントローラ21は、USBレシーバ25を有しており、USBレシーバ25は、スマートフォンUSBポート(図示せず)に接続するように構成され、当該スマートフォンによって生成されたUSB信号を、その構成要素、すなわち、コントロール(I2C:Inter‐Integrated Circuit。既知の技術)、パワー、ビデオに分割する。また、USBレシーバは、ビデオ信号をパラレルの24ビットRGB信号に変換する。この変換されたビデオ信号は、フレームレートコンバータ(FRC:Frame Rate Converter)26に伝達され、フレームレートコンバータ(FRC)26は、変換されたビデオ信号がFRC26によって供給されるマイクロディスプレイ27に適合するようにビデオフレームレートを増加させる。マイクロディスプレイ27は、有機LED(OLED:Organic LED)とすることができるが、LCOS(液晶オンシリコン:Liquid Crystal On Silicon)であれば、より高い照度が達成される。マイクロディスプレイ27がLCOS技術上に構築されている場合、I2C信号は、マイクロディスプレイに照射するLED32の強度を制御するパルス幅変調器(PWM:Pulse Width Modulator)28に供給される。LCOSマイクロディスプレイ27は、結合型光学素子(Coupled‐in optics)30を介してシースルーディスプレイ23に画像を送り、結合型光学素子30は、マイクロディスプレイによって生成された画像をシースルーディスプレイに光学的に投影する。I2C信号は、マイクロディスプレイ27およびFRC26を制御するためにも使用される。マイクロディスプレイ27がOLEDであるというあまり好ましくないケースでは、PWM28およびLED32は省かれ、I2C信号がOLEDを直接制御する。電力はUSBレシーバ25を介して関連する構成要素に、すなわち、マイクロディスプレイ27およびLED32に供給される。あるいは、外部電池(図示せず)を使用してスマートフォン機の電池の消耗を最小限に抑えることができる。
あるいは、スマートフォンのUSBインターフェースを使用する代わりに、Moto-Zインターフェース(http://newatlas.com/moto-z-review/44485/)などの別のスマートフォン接続を使用することもできる。
シースルーディスプレイ23に表示される画像は、好ましくは無限遠で現実の風景に重ね合わされるので、風景と重ね合わされた情報との間に視差は存在しない。
別の実施形態が図3および図4に概略的に示されている。ビューワ2のハウジング102は、直接またはアダプタを使用して、スマートフォン100に機械的に取り付けられている。スマートフォンにアクセサリを取り付けるための機械的手段は当技術分野において公知である。例えば、Miggo's Pictar iPhone(登録商標)カメラアクセサリー(https://www.dpreview.com/news/1219763835/miggo-wants-to-dslr-your-iPhone-with-the-pictar-grip)またはZeissのレンズアクセサリー(https://petapixel.com/2016/01/06/zeiss-is-jumping-into-the-world-of-smartphone-lens-accessories/)である。スマートフォンの表示画面200に表示された情報(この例では、図4の関心領域201上の数字「1234」)は、ビューワ2によって現実の風景の上に投影される。これが行われる方法を次に説明する。
したがって、全体的に108として示される光学素子に向けてミラー104から光を向けるために、ビューワ2は、スマートフォンの表示画面200に向けられた反射面を有するミラー104を含む。光学素子108は、スマートフォンの表示画面上に表示された情報の画像を、好ましくは無限遠で作成し、これによって風景との視差がなくなる。光学素子108は、当該光学素子108を上下に移動させるための集光機構(図示せず)と一体化または結合することにより、表示情報が無限遠からの距離、好ましくは数メートルまでの距離で現れるようにできるので、屋内アプリケーション用のビューアとして使用することができる。半透明ミラー(コンバイナ)106は、この画像を観察者の眼203に向ける。その結果、観察者は、半透明ミラー106を介して観察者からも見られる現実の風景の上に重ねて、投影された情報200'を無限遠に見る。
この実施形態のより詳細な説明は、図5aおよび5bに示される。ビューワ2はスマートフォン100に取り付けられている。観察者203(図3)は、開口部103を通して風景と重ね合わせた情報を観察する。
光学素子108のさらなる詳細は図5bに示されている。光学素子108は、2つの同一のダブレット(doublet)108'、108”を含み、ミラー104を介してダブレットでの合成後焦点面の像がスマートフォンの表示画面200と一致するように設計される。その結果、スマートフォンの表示画面の画像が無限遠に作成される。図5bには、視野の端部における歪みおよび収差を補正するために使用される視野レンズ107も示されている。
この実施形態の典型的なパラメータは以下の通りである。
・関心領域201の寸法は、40mm(水平)および22.5mm(垂直)である。
・光学素子108は、典型的には75mmの焦点距離のものであるので、関心領域201は、30°(水平)および16.7°(垂直)の視野に投影される。
別の実施形態は、マイクロディスプレイ27の代わりに結合型光学素子30(図2に示される)への入力としてスマートフォンの表示画面を使用する。
異なる視野をもたらすように異なるパラメータを有する同様の設計を行うことができることは当業者には明らかである。
図6は、結合型光学素子30に結合されて、スマートフォン表示画面200上の関心領域201からシースルーディスプレイ23へ画像を直接投影する別の実施形態を示す。結合光学素子は、関心領域201の大きさに適合されている。シースルーディスプレイ23は、Google Glass、Epson Moverio、ODG R-7、Vuzix Smart Glassesなどのスマートメガネに使用される同様のシースルーディスプレイとすることができる。シースルーディスプレイは、上述したLumus OE-32(Lumusにより「LOE」または「反射型光導波路」と呼ばれる)またはMicrosoft Hololensで使用されているものなどの導波路ベースのディスプレイの1つであり得る。
オブジェクト上に(現実にもその画像上にも)関連情報を重ね合わせるためには、オブジェクトを正しく指定すること、すなわちスマートフォンの位置、オブジェクトが見られる方向および距離、ならびにオブジェクトの画像を知るべきことが重要である。これはまた、異なる場所にいる他のビューワへのオブジェクトの指定を可能にするためにも重要である。場合によっては、例えば遠くから見たときに、図1の101として示されるスマートフォンカメラを使用する表示画面上でも裸眼でも、オブジェクトを鮮明に観察することができない。このような場合、ユーザに高解像度の画像を提供し、それを(ディスプレイ画面上または現実に)オブジェクト上に重ね合わせることも重要である。
画像を拡大/縮小する方法は2つある。「従来の」方法は、ズームレンズを使用することによって光学素子の焦点距離を変えるために光学ズームを使用することである。焦点距離が増加すると視野は狭くなり(「ズームイン」と呼ばれる)、焦点距離が短くなると視野は広くなる(「ズームアウト」と呼ばれる)。
デジタルカメラで一般的なもう1つの方法は、画像の一部分だけを見て、デジタル技術を使用してそれを拡大してすべての画面領域をカバーすることによって、画像を拡大することである。これは通常「電子ズーム」と呼ばれる。
以下のように、本発明は改善されたズーミングを提供する。オブジェクトが指定されると、そのオブジェクトの高解像度画像がデータベース(ストリートビューなど)から抽出され、現実(またはその画像)に重ね合わされる。このようにして、我々は、スマートフォンを有する観察者がオブジェクトの高解像度画像化を可能にしない距離に位置していても、オブジェクトの高解像度画像を見る能力を提供する。
説明したように、オブジェクトを指定できる方法は、次の2つの方法のいずれかで行うことができる。
1.図7に示すように、ユーザはビューワをオブジェクトに向ける。スマートフォンの位置および方向、ならびにスマートフォンカメラによって取得されたオブジェクトの画像は、ストリートビューなどのデータベースから、オブジェクトデータ、すなわち座標および画像を抽出するために使用される。これは次のようにして行うことができる。スマートフォンカメラの位置と方向を使用して、オブジェクトの粗い位置が計算される。スマートフォンカメラによって取得されたオブジェクトの画像は、この粗い位置でストリートビューデータベースの画像と照合され、オブジェクトはストリートビューデータベースで識別される。ストリートビューデータベースには、ストリートビューカメラの位置と共にカメラからオブジェクトまでの距離と方向が含まれている。このデータを使用して、オブジェク トの位置を特定することができる。
2.システムは、オブジェクトの既知の位置座標を使用してユーザをそのオブジェクトに向ける。既知の座標は、ストリートビューなどのデータベースにも送信される。
どちらの場合も、オブジェクトの高解像度画像がデータベースから抽出されると、その画像はスマートフォンの位置から見たように見え、現実に重ね合わされるように変換され、ユーザによる電子ズームインおよびズームイン操作を実行することが可能になる。

Claims (17)

  1. 携帯装置(100)によって生成されたコンテンツを現実に投影するためのアクセサリ(2)であって、
    前記携帯装置に機械的に取り付けるように構成されたハウジング(102)と、
    前記ハウジング内の観察光学素子(108)と、
    を備え、
    前記ハウジングは、シースルーディスプレイ(23)を介して、前記携帯装置によって生成されたコンテンツの画像を現実に投影するように構成された、アクセサリ。
  2. 前記携帯装置(100)がスマートフォンである、請求項1に記載のアクセサリ。
  3. 電気信号を受信し、当該電気信号を前記観察光学素子によって現実に投影するための画像に変換するように構成されたコントローラ(21)をさらに含む、請求項1または2に記載のアクセサリ。
  4. 前記コンテンツが前記携帯装置の表示画面(200)に表示され、前記観察光学素子(108)が、前記携帯装置の前記表示画面に表示される前記画像の少なくとも一部分を取得するように構成されると共に、前記画像の前記一部分を外部現実に投影するように構成される、請求項1から3のいずれか一項に記載のアクセサリ。
  5. 前記シースルーディスプレイは半透明ミラー(106)である、請求項4に記載のアクセサリ。
  6. 前記シースルーディスプレイは光導波路である、請求項4に記載のアクセサリ。
  7. 空間内の既知の位置を有する携帯カメラ(101)によって撮像されたオブジェクトの空間内の位置を決定するための方法であって、
    前記カメラの前記既知の位置を、前記オブジェクトに対する視線方向と組み合わせて使用すると共に、複数のオブジェクトの複数の画像とこれらのそれぞれの位置に関する情報とを含むデータベース内でレコードを見つけるために前記オブジェクトの前記画像と組み合わせて使用することと、
    前記データベースから前記オブジェクトの位置を抽出することと、
    を含む、方法。
  8. 前記データベースから前記オブジェクトの高解像度画像を抽出することを含む、請求項7に記載の方法。
  9. 前記カメラの前記位置から観察された前記オブジェクトの画像を作成するために、前記データベースから抽出された前記画像を変換することを含む、請求項8に記載の方法。
  10. 表示画面上に前記画像を表示することを含む、請求項7から9のいずれか一項に記載の方法。
  11. 前記画像を現実の画像に重ね合わせることを含む、請求項10に記載の方法。
  12. 前記画像を現実に重ね合わせることを含み、前記表示画面がシースルーディスプレイである、請求項10に記載の方法。
  13. 位置が既知のオブジェクトの画像を投影する方法であって、
    複数のオブジェクトの複数の画像とこれらのそれぞれの位置に関する情報とを含むデータベース内でレコードを見つけるために前記オブジェクトの前記既知の位置を使用することと、
    前記データベースから前記オブジェクトの位置を抽出することと、
    前記画像を現実の上に重ねてシースルーディスプレイに表示することと、
    を含む、方法。
  14. データベースから、第1の既知の位置を有するオブジェクトの画像を抽出し、第2の既知の位置にあるシースルーディスプレイに表示する方法であって、前記データベースは、複数のオブジェクトの複数の画像およびこれらのそれぞれの位置を含み、前記方法は、
    前記オブジェクトに対応するデータベース内のレコードを見つけるために前記オブジェクトの前記第1の既知の位置を使用することと、
    前記データベースから前記オブジェクトの画像を抽出することと、
    前記シースルーディスプレイの前記第2の既知の位置から観察されるように前記オブジェクトの画像を生成するように前記画像を変換することと、
    変換された前記画像を、現実または現実の画像と重ね合わせてシースルーディスプレイ上に表示することと、
    を含む、方法。
  15. 前記表示画像を電子的にズームインまたはズームアウトすることを含む、請求項10から14のいずれか一項に記載の方法。
  16. オブジェクトとカメラとの間の距離を推定するための方法であって、
    カメラによって取得されたオブジェクトの画像とディープラーニングとを使用することを含む方法。
  17. 前記オブジェクトが建物である、請求項16に記載の方法。
JP2023111626A 2016-08-18 2023-07-06 拡張現実感のための装置および方法 Active JP7507522B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
IL247360A IL247360B (en) 2016-08-18 2016-08-18 A device and method for augmented reality
IL247360 2016-08-18
JP2019509508A JP7353174B2 (ja) 2016-08-18 2017-08-03 拡張現実感のための装置および方法
PCT/IL2017/050859 WO2018033903A1 (en) 2016-08-18 2017-08-03 Apparatus and method for augmented reality

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019509508A Division JP7353174B2 (ja) 2016-08-18 2017-08-03 拡張現実感のための装置および方法

Publications (2)

Publication Number Publication Date
JP2023174650A true JP2023174650A (ja) 2023-12-08
JP7507522B2 JP7507522B2 (ja) 2024-06-28

Family

ID=57612753

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019509508A Active JP7353174B2 (ja) 2016-08-18 2017-08-03 拡張現実感のための装置および方法
JP2023111626A Active JP7507522B2 (ja) 2016-08-18 2023-07-06 拡張現実感のための装置および方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2019509508A Active JP7353174B2 (ja) 2016-08-18 2017-08-03 拡張現実感のための装置および方法

Country Status (8)

Country Link
US (1) US10962778B2 (ja)
EP (1) EP3497545B1 (ja)
JP (2) JP7353174B2 (ja)
KR (1) KR102200491B1 (ja)
CN (1) CN109643157B (ja)
ES (1) ES2809165T3 (ja)
IL (1) IL247360B (ja)
WO (1) WO2018033903A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102104705B1 (ko) * 2016-11-23 2020-05-29 최해용 휴대용 혼합 현실 장치
IL260356A (en) 2018-07-01 2018-11-29 Veeride Ltd Optical accessory for field registration You have seen a simulation of the accessory with a software application on the computing device
US10963030B2 (en) 2019-04-22 2021-03-30 Motorola Solutions, Inc. Method and apparatus for displaying an image from a communications device
KR20210117418A (ko) * 2020-03-19 2021-09-29 삼성전자주식회사 전자 장치의 화면을 홀로그램으로 표시하는 거치 장치
US20240192490A1 (en) * 2021-03-19 2024-06-13 Digilens Inc. Smart Device Mounted Augmented Reality Displays

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6637896B2 (en) * 2001-10-31 2003-10-28 Motorola, Inc. Compact projection system and associated device
SE531104C2 (sv) 2002-12-30 2008-12-16 Abb Research Ltd Metod och system för programmering av en industrirobot
US8353598B2 (en) * 2008-08-22 2013-01-15 Texas Instruments Incorporated Display systems and methods for mobile devices
US20120050144A1 (en) * 2010-08-26 2012-03-01 Clayton Richard Morlock Wearable augmented reality computing apparatus
US9459457B2 (en) 2011-12-01 2016-10-04 Seebright Inc. Head mounted display with remote control
US8970960B2 (en) * 2011-12-22 2015-03-03 Mattel, Inc. Augmented reality head gear
JP6060512B2 (ja) 2012-04-02 2017-01-18 セイコーエプソン株式会社 頭部装着型表示装置
KR102028732B1 (ko) * 2012-04-05 2019-10-04 매직 립, 인코포레이티드 능동 포비에이션 능력을 갖는 와이드-fov(field of view) 이미지 디바이스들
US8820936B2 (en) * 2012-10-03 2014-09-02 Htc Corporation Electronic device having 3-D image projection mechanism and 3-D image projection method of the same
US20140104692A1 (en) 2012-10-11 2014-04-17 Sony Computer Entertainment Europe Limited Head mountable display
CN104216118A (zh) * 2013-06-03 2014-12-17 约翰·T·默里 具有远程控制件的头部安装式显示器
GB201310359D0 (en) * 2013-06-11 2013-07-24 Sony Comp Entertainment Europe Head-Mountable apparatus and systems
EP3108287A4 (en) * 2014-02-18 2017-11-08 Merge Labs, Inc. Head mounted display goggles for use with mobile computing devices
TW201606350A (zh) * 2014-08-12 2016-02-16 Automotive Res & Testing Ct 抬頭顯示裝置
JP3197950U (ja) 2015-03-18 2015-06-11 育子 杉原 画像観察フレーム
CN204613516U (zh) * 2015-04-21 2015-09-02 杨振亚 头戴式手机类小屏幕多功能拓展装置
JP3202424U (ja) 2015-11-20 2016-02-04 和矢 橋口 拡張現実提供装置
US9922464B2 (en) * 2016-05-10 2018-03-20 Disney Enterprises, Inc. Occluded virtual image display
CN105824123A (zh) * 2016-05-13 2016-08-03 深圳中科呼图信息技术有限公司 一种增强现实头戴装置
US10725301B2 (en) * 2016-12-08 2020-07-28 Darwin Hu Method and apparatus for transporting optical images
US11258890B2 (en) * 2018-07-30 2022-02-22 IKIN, Inc. Portable terminal accessory device for holographic projection and user interface

Also Published As

Publication number Publication date
KR102200491B1 (ko) 2021-01-08
JP7507522B2 (ja) 2024-06-28
ES2809165T3 (es) 2021-03-03
US20190227314A1 (en) 2019-07-25
JP7353174B2 (ja) 2023-09-29
JP2019534493A (ja) 2019-11-28
KR20190040015A (ko) 2019-04-16
IL247360B (en) 2021-09-30
WO2018033903A1 (en) 2018-02-22
EP3497545A1 (en) 2019-06-19
EP3497545B1 (en) 2020-06-24
US10962778B2 (en) 2021-03-30
CN109643157A (zh) 2019-04-16
CN109643157B (zh) 2022-08-16
IL247360A0 (en) 2016-12-29

Similar Documents

Publication Publication Date Title
JP7507522B2 (ja) 拡張現実感のための装置および方法
US11231897B2 (en) Display system, display device, information display method, and program
US9898868B2 (en) Display device, method of controlling the same, and program
CN110060614B (zh) 头部佩戴型显示装置及其控制方法、显示系统
US20140085190A1 (en) Display, Imaging System and Controller for Eyewear Display Device
KR20140036351A (ko) 컴팩트한 시스루 디스플레이 시스템
JP6590050B2 (ja) 表示装置、表示システム、表示装置の制御方法、及び、プログラム
CN110383140A (zh) 增强现实眼镜
KR20130034125A (ko) 증강현실 기능을 구비한 안경형 모니터
KR20120007781U (ko) 증강현실과 헤드-업 디스플레이를 이용한 경로 안내 방법
CN103018907A (zh) 显示方法及头戴显示器
US20160021360A1 (en) Display device, method of controlling display device, and program
JP2019534493A5 (ja)
US20200026081A1 (en) Augmented Reality Apparatus
JP6540426B2 (ja) 表示システム、表示装置、情報表示方法、及び、プログラム
KR101090081B1 (ko) 증강현실 제공 시스템 및 그 제공 방법
JP6733401B2 (ja) 表示システム、表示装置、情報表示方法、及び、プログラム
KR20230152724A (ko) 필드 렌즈를 구비한 프로젝터
US9989762B2 (en) Optically composited augmented reality pedestal viewer
CN102998799A (zh) 一种虚境与实境融合近眼显示系统
WO2020060989A1 (en) Mask with integrated display system
US20220342222A1 (en) Eyewear having a projector with heat sink shields
CN118585060A (zh) 提升微光夜视镜下人眼感知能力的方法及装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230803

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230803

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231026

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240513

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240611

R150 Certificate of patent or registration of utility model

Ref document number: 7507522

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150