JP2022167637A - 観察システム、及び、観察支援方法 - Google Patents

観察システム、及び、観察支援方法 Download PDF

Info

Publication number
JP2022167637A
JP2022167637A JP2021073573A JP2021073573A JP2022167637A JP 2022167637 A JP2022167637 A JP 2022167637A JP 2021073573 A JP2021073573 A JP 2021073573A JP 2021073573 A JP2021073573 A JP 2021073573A JP 2022167637 A JP2022167637 A JP 2022167637A
Authority
JP
Japan
Prior art keywords
observation
image
auxiliary information
observation system
auxiliary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021073573A
Other languages
English (en)
Inventor
健太郎 山崎
Kentaro Yamazaki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Evident Co Ltd
Original Assignee
Evident Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Evident Co Ltd filed Critical Evident Co Ltd
Priority to JP2021073573A priority Critical patent/JP2022167637A/ja
Priority to US17/724,688 priority patent/US12033242B2/en
Publication of JP2022167637A publication Critical patent/JP2022167637A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S11/00Systems for determining distance or velocity not using reflection or reradiation
    • G01S11/12Systems for determining distance or velocity not using reflection or reradiation using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S11/00Systems for determining distance or velocity not using reflection or reradiation
    • G01S11/14Systems for determining distance or velocity not using reflection or reradiation using ultrasonic, sonic, or infrasonic waves
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B25/00Eyepieces; Magnifying glasses
    • G02B25/001Eyepieces
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • G02B21/361Optical details, e.g. image relay to the camera or image sensor
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • G02B21/368Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements details of associated display arrangements, e.g. mounting of LCD monitor
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Multimedia (AREA)
  • Optics & Photonics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Electromagnetism (AREA)
  • Ophthalmology & Optometry (AREA)
  • Human Computer Interaction (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Microscoopes, Condenser (AREA)

Abstract

【課題】既存の観察装置の構成に大幅な変更を加えることなく、光学画像とともに補助情報を利用者に提供する。【解決手段】観察システム1000は、観察装置100と観察補助装置200を含む。観察装置100は、接眼レンズ102と対物レンズ101を含み、接眼レンズ102と対物レンズ101の間の光路上に試料の実像を形成する。観察補助装置200は、ユーザに装着され、ユーザに補助情報を出力する。観察補助装置200は、観察補助装置200の観察装置100に対する相対位置に基づいて接眼レンズ102を介してユーザによって観察される試料の虚像に補助情報を重ねる。【選択図】図1

Description

本明細書の開示は、観察システム、及び、観察支援方法に関する。
病理診断では、試料のデジタル画像上に画像解析結果に基づく補助情報を重ねた画像を表示装置で表示することで、病理医の診断を補助する技術が知られている。このような補助情報を表示する技術は、病理診断に限らず、様々な分野に適応可能であり、画像解析技術の発展に伴い、ますます利用が拡大されるものと期待されている。
一方で、接眼レンズを覗いて試料の光学画像を目視するニーズも引き続き存在する。これは、一般に、デジタル画像は、光学画像と比較して、色再現性とダイナミックレンジにおいて劣っているためである。
このような課題に関連する技術は、例えば、特許文献1に記載されている。特許文献1に記載の技術を用いることで、光学画像上に補助情報が重畳表示されるため、光学画像で試料を観察しながら、補助情報によって必要な支援を得ることが可能となる。
国際公開第2018/231204号
しかしながら、特許文献1に記載の技術を利用するには、既存の観察装置に投影装置を組み込まなければならない。このため、既存の観察装置の構成に大幅な変更を加える必要がある。
以上のような実情を踏まえ、本発明の一側面に係る目的は、既存の観察装置の構成に大幅な変更を加えることなく、光学画像とともに補助情報を利用者に提供する技術を提供することである。
本発明の一態様に係る観察システムは、接眼レンズと対物レンズを含み、前記接眼レンズと前記対物レンズの間の光路上に試料の実像を形成する観察装置と、ユーザに装着され、前記ユーザに補助情報を出力する観察補助装置であって、前記観察補助装置の前記観察装置に対する相対位置に基づいて前記接眼レンズを介して前記ユーザによって観察される前記試料の虚像に前記補助情報を重ねる観察補助装置と、を備える。
本発明の一態様に係る観察補助方法は、接眼レンズと対物レンズを含む観察装置が、前記接眼レンズと前記対物レンズの間の光路上に試料の実像を形成し、ユーザに装着された観察補助装置が、前記ユーザに補助情報を出力し、前記観察補助装置の前記観察装置に対する相対位置に基づいて前記接眼レンズを介して前記ユーザによって観察される前記試料の虚像に前記補助情報を重ねる。
上記の態様によれば、既存の観察装置の構成に大幅な変更を加えることなく、光学画像とともに補助情報を利用者に提供することが可能となる。
第1の実施形態に係るシステム1000の構成を説明する図である。 ユーザに提供される重畳画像の構成を説明する図である。 システム1000で行われる処理の一例を示すフローチャートである。 システム1000で行われる補助情報取得処理の一例を示すフローチャートである。 システム1000で行われる相対位置検出処理の一例を示すフローチャートである。 システム1000で行われる補助情報出力処理の一例を示すフローチャートである。 図6に示す補助情報出力処理による補助情報3の出力位置の調整例を示す図である。 システム1000で行われる補助情報出力処理の別の例を示すフローチャートである。 図8に示す補助情報出力処理による補助情報3の出力位置の調整例を示す図である。 第1の実施形態に係るシステム1000の機能的構成を説明する図である。 出力部220の構成の一例を説明する図である。 出力部220の構成の別の例を説明する図である。 出力部220の構成の更に別の例を説明する図である。 第2の実施形態に係るシステムの機能的構成を説明する図である。 第3の実施形態に係るシステムの機能的構成を説明する図である。 出力部260と撮影部270の構成の一例を説明する図である。 撮影部270で撮影された画像の一例を示した図である。 第4の実施形態に係るシステムの機能的構成を説明する図である。 観察補助装置200cにおける補助情報の出力例を示す図である。 第5の実施形態に係るシステムの機能的構成を説明する図である。 観察補助装置200dにおける補助情報の出力例を示す図である。 重畳画像の別の例を示す図である。 重畳画像の更に別の例を示す図である。
[第1の実施形態]
図1は、本実施形態に係るシステム1000の構成を説明する図である。図2は、ユーザに提供される重畳画像の構成を説明する図である。以下、図1及び図2を参照しながら、システム1000の構成について説明する。
システム1000は、図1に示すように、観察装置100と、観察装置100と通信可能な観察補助装置200を含んでいる。以降では、観察装置100と観察補助装置200の間の通信が無線通信によって実現される場合を例に説明するが、観察装置100と観察補助装置200の間の通信は、有線通信によって実現されてもよい。
観察装置100は、例えば、顕微鏡装置である。観察装置100は、対物レンズ101と接眼レンズ102を備えている。観察装置100は、対物レンズ101と接眼レンズ102の間の光路上に試料の光学画像(実像)を形成する。観察装置100のユーザは、図2に示すように、観察装置100が形成する光学画像(実像)を拡大した光学画像1(虚像)を、接眼レンズ102を介して観察する。
また、観察装置100は、デジタルカメラ103を備えてもよい。観察装置100は、3眼鏡筒によって対物レンズ101からの光を接眼レンズ102へ導く光路とデジタルカメラ103へ導く光路とに分岐してもよい。デジタルカメラ103で取得したデジタル画像2は、例えば、顕微鏡本体を制御する制御装置105に出力される。
観察装置100では、制御装置105が、デジタル画像2に対して行われた画像解析の結果に基づいて補助情報3を生成してもよい。補助情報3は、図2に示すような、試料に含まれる特定の対象(例えば、細胞、細胞核など)の輪郭を表示する情報であってもよく、例えば、デジタル画像2に対して行われた物体検出結果に基づいて生成されてもよい。
観察装置100は、さらに、位置検出用の発信機104を備えてもよい。発信機104は、後述する受信機201と組み合わせて用いることで、観察補助装置200の観察装置100に対する相対位置の検出に用いられてもよい。以降では、観察補助装置200の観察装置100に対する相対位置を単に相対位置と記す。ユーザの目がアイポイントからどの程度離れているかを把握する場合、発信機104は、図1に示すように、接眼レンズ102又は接眼レンズ102の近傍に設けられることが望ましい。なお、発信機104は、ユーザが感知しない信号を発信することが望ましく、例えば、可視域外の電磁波、又は、超音波の少なくとも一方を発信することが望ましい。発信機104は、磁場を発生させる磁場発生装置であってもよい。
観察補助装置200は、例えば、スマートグラスである。観察補助装置200は、観察装置100のユーザに装着される装置であり、ユーザが観察装置100を使用するときに、ユーザに補助情報を出力する。観察補助装置200は、ユーザが、補助情報を視認できる態様で、出力できればよい。より詳細には、観察補助装置200は、補助情報を接眼レンズ102を介して試料の光学画像を観察しながら視認できる態様で、出力できればよい。
このため、観察補助装置200は、スマートグラスに限らず、例えば、シースルー型のヘッドマウントディスプレイを含んでもよく、眼球に直接装着されるコンタクトレンズタイプの装置(スマートコンタクトレンズ)を含んでもよく、これらの少なくとも一つを含んでもよい。なお、補助情報をユーザへ出力する方式は、特に限定しない。観察補助装置200は、例えば、網膜投影方式、網膜走査方式、ホログラム方式、又は、マイクロLED方式の装置の少なくとも一つを含んでもよく、それぞれの方式でユーザへ補助情報を出力してもよい。
観察補助装置200は、相対位置に基づいて、図2に示すように、接眼レンズ102を介してユーザによって観察される光学画像1(虚像)に補助情報3を重ねる。これにより、ユーザは、光学画像1に補助情報3が重畳した重畳画像4を観察する。相対位置を利用して補助情報3が光学画像1に対して適切な位置に配置されることで、ユーザは、重畳画像4に含まれる補助情報3から適切な情報を得ることができる。
観察補助装置200は、位置検出用の受信機201を備えてもよい。受信機201は、前述した発信機104と組み合わせて用いることで、相対位置の検出に用いられてもよい。発信機104と受信機201による位置検出の方法は、特に限定しない。例えば、観察装置100には、3つ以上の発信機104が設けられていてもよく、測位方法としては、それらの発信機104からの信号によって測位する三点測位が用いられてもよい。また、観察補助装置200には、3つ以上の受信機201が設けられていてもよく、測位方法としては、それらの受信機201によって受信した信号によって測位する三点測位が用いられてもよい。観察装置100と観察補助装置200は、三点測位で相対位置を検出してもよい。
図3は、システム1000で行われる処理の一例を示すフローチャートである。図4は、システム1000で行われる補助情報取得処理の一例を示すフローチャートである。図5は、システム1000で行われる相対位置検出処理の一例を示すフローチャートである。図6は、システム1000で行われる補助情報出力処理の一例を示すフローチャートである。図7は、図6に示す補助情報出力処理による補助情報3の出力位置の調整例を示す図である。図3から図7を参照しながら、システム1000によって行われる観察支援方法について説明する。
システム1000は、図3に示す処理を開始すると、観察装置100がステージに置かれた試料の光学画像を形成する(ステップS10)。ここでは、観察装置100が対物レンズ101と図示しない結像レンズによって試料からの光を集光して試料の光学画像を形成する。光学画像は、例えば、3眼鏡筒内で分岐した接眼レンズ102へ至る光路上とデジタルカメラ103の撮像面上のそれぞれに形成される。接眼レンズ102へ至る光路上に形成された光学画像は、接眼レンズ102を介してユーザに観察される。
また、システム1000は、補助情報を取得する(ステップS20)。システム1000は、例えば、図4に示す補助情報取得処理を行うことによって、補助情報を取得してもよい。図4に示す処理が開始されると、観察装置100は、デジタル画像を取得する(ステップS21)。ステップS21では、撮像面上に形成された光学画像をデジタルカメラ103がデジタル画像に変換し制御装置105へ出力することで、観察装置100がデジタル画像を取得する。次に、観察装置100は、デジタル画像を解析する(ステップS22)。ステップS22では、制御装置105が、例えば、デジタル画像に対して物体検出を行い、デジタル画像内における所定の物体の位置を検出する。最後に、観察装置100は、補助情報を生成する(ステップS23)。ステップS23では、制御装置105が、例えば、物体検出によって検出された所定の物体の位置情報に基づいて、所定の物体の輪郭を描く補助情報を生成する。生成された補助情報は、観察装置100から観察補助装置200へ送信される。
なお、図4では、補助情報取得処理の一例として、観察装置100が補助情報を生成し、観察補助装置200が観察装置100から補助情報を取得する例を示したが、補助情報は、観察補助装置200で生成されてもよい。観察補助装置200は、補助情報とは異なる情報(例えば、デジタル画像)を観察装置100から取得し、取得した情報に基づいて補助情報を生成してもよい。
また、システム1000は、相対位置を検出する(ステップS30)。システム1000は、例えば、図5に示す相対位置検出処理を行うことによって、相対位置を検出してもよい。図5に示す処理では、観察装置100が、信号を発信し(ステップS31)、観察補助装置200が、信号を受信する(ステップS32)。より具体的には、発信機104が位置検出用の信号(以降、位置信号と記す。)を発信し、受信機201が位置信号を受信する。その後、観察補助装置200は、受信機201で検出した位置信号に基づいて相対位置を算出する(ステップS33)。相対位置は、任意の既知の方法により算出し得る。
なお、図5では、相対位置検出処理の一例として、観察装置100が発信した信号を観察補助装置200が受信し、観察補助装置200が相対位置を算出する例を示したが、相対位置は、観察装置100で算出されてもよい。例えば、観察補助装置200に発信機を、観察装置100に受信機を設けて、観察補助装置200から受信した信号に基づいて観察装置100が相対位置を算出してもよい。この場合、算出した相対位置の情報は、観察装置100から観察補助装置200へ送信される。
ステップS10からステップ30の処理が終了すると、システム1000は、補助情報を出力し、光学画像に補助情報を重畳する(ステップS40)。なお、ステップS10からステップS30の処理の順番は、この例に限らない。ステップS10からステップS30の各処理は、ステップS40の処理よりも前に行わればよい。ステップS10からステップS30の処理は、図3に示す処理の順番とは異なる順番に行われてもよく、1つ以上の処理が時間的に並列に行われてもよい。
ステップS40では、システム1000は、例えば、図6に示す補助情報出力処理を行うことによって、光学画像に補助情報を重畳してもよい。図6に示す処理では、観察補助装置200は、ステップS33で算出した相対位置に基づいて接眼レンズ102の光軸から観察補助装置200までの距離と方向を算出し(ステップS41)、算出した距離と方向に基づいて補助情報の出力位置を決定する(ステップS42)。これは、観察補助装置200の一定の位置から補助情報を出力したとしても、接眼レンズ102の光軸から観察補助装置200までの距離と方向によって、ユーザが接眼レンズ102を介して観察する光学画像に対する補助情報の位置が変化するからである。
最後に、観察補助装置200は、ステップS42で決定した出力位置に従ってステップS23で取得した補助情報を出力する(ステップS43)。これにより、ステップS41で算出した距離と方向に基づいて補助情報の出力位置が適宜変更されることになるため、接眼レンズ102の光軸を基準とした観察補助装置200の位置に応じた位置に補助情報を出力することができる。
システム1000は、上述した図3に示す処理を行うことで、補助情報3を光学画像1上の適切な位置に表示することができる。この点について図7を参照しながら説明する。まず、補助情報3の観察補助装置200からの出力位置が変化しない場合を考える。この場合、補助情報3が光学画像1上の適切な位置に重ねられた重畳画像4を観察中に、観察補助装置200を装着したユーザが接眼レンズ102に対して移動すると、観察補助装置200もユーザとともに接眼レンズ102に対して移動し、その結果、光学画像1に対して補助情報3が移動してしまう。このため、ユーザは、図7に示すように、補助情報3が光学画像1上の適切な位置からずれた位置に重なった重畳画像5を観察することになる。しかしながら、システム1000では、接眼レンズ102からの距離と方向に基づいて補助情報3の観察補助装置200からの出力位置が変化することで、上述した重畳画像5に見られるズレが解消される。その結果、ユーザは、接眼レンズ102に対して移動した場合であっても、図7に示すように、補助情報3が光学画像1上の適切な位置に重ねられた重畳画像6を観察することができる。
さらに、システム1000では、既存の観察装置に対して大幅な変更を加えることなく。観察装置100を構成することができる。具体的には、観察装置100は、例えば、既存の観察装置に対して発信機104を追加するだけで構成可能である。その他の必要な変更は、制御装置105によって行われるソフトウェア処理によって実現可能である。
従って、システム1000によれば、既存の観察装置の構成に対して大幅な変更を加えることなく、光学画像とともに補助情報を利用者に提供することが可能となる。特に、光学画像上の適切な位置に補助情報を重ねて表示することができるため、補助情報を利用者が正しく認識することができる。また、装置が既存の装置と比較して大型化することも回避することができる。
また、観察補助装置200についても、既存のスマートグラスの構成に対して大幅な変更は必要ない。観察補助装置200は、例えば、既存のスマートグラスに対して受信機201を追加するだけで構成可能である。その他の必要な変更は、観察補助装置200に含まれるプロセッサによって行われるソフトウェア処理によって実現可能である。
従って、システム1000によれば、システム1000に含まれる観察補助装置200として、他の用途で使用されている既存のスマートグラスを、必要な変更を加えて利用することができる。このため、ユーザは、システム1000を含む複数のシステムで1つのスマートグラスを利用することが可能であり、使用するシステムに応じてスマートグラスを交換しなければならないといった不便を回避することができる。
図8は、システム1000で行われる補助情報出力処理の別の例を示すフローチャートである。図9は、図8に示す補助情報出力処理による補助情報3の出力位置の調整例を示す図である。システム1000は、図6に示す補助情報出力処理の代わりに、図8に示す補助情報出力処理を行ってもよい。
観察補助装置200は、ステップS33で算出した相対位置に基づいて観察装置100から観察補助装置200までの距離(以降、第1の距離と記す。)を算出し(ステップS51)、算出した第1距離が所定距離以上か否かを判定する(ステップS52)。この所定距離は、ユーザが接眼レンズ102を覗いていないと判断できる程度にユーザ(観察補助装置200)が観察装置100から離れていることを示す距離であればよい。より具体的には、所定距離は、例えば、接眼レンズ102からアイポイントまでの距離であるアイレリーフに基づいて予め決定されている。即ち、ステップS52では、観察補助装置200は、接眼レンズ102からユーザの目(例えば、瞳孔)までの距離がアイレリーフに比べて十分に長いか否かを判断する。
観察補助装置200は、ステップS52で第1距離が所定距離以上であると判定すると(ステップS52YES)、さらに、第1距離が、前回算出された第1距離と比較したときに、所定距離を跨って増加しているか否かを判定する(ステップS53)。観察補助装置200は、第1距離が所定距離を跨って増加していると判定すると(ステップS53YES)、補助情報3の出力を停止し(ステップS54)、その後、図8に示す補助情報出力処理を終了する。一方、観察補助装置200は、第1距離が所定距離を跨って増加していないと判定すると(ステップS53NO)、ステップS54を省略して、補助情報出力処理を終了する。
一方で、観察補助装置200は、ステップS52で第1距離が所定距離以上でないと判定すると(ステップS52NO)、ステップS33で算出した相対位置に基づいて接眼レンズ102の光軸から観察補助装置200までの距離(以降、第2距離と記す。)と方向を算出し(ステップS55)、算出した第2距離と方向に基づいて補助情報の出力位置を決定する(ステップS56)。なお、ステップS55とステップS56の処理は、図6のステップS41とステップS42の処理と同様である。
その後、観察補助装置200は、第1距離が、前回算出された第1距離と比較したときに、所定距離を跨って減少しているか否かを判定する(ステップS57)。観察補助装置200は、第1距離が所定距離を跨って減少していると判定すると(ステップS57YES)、補助情報3の出力を開始し(ステップS58)、ステップS56で決定した出力位置に従って補助情報を出力し(ステップS59)、その後、図8に示す補助情報出力処理を終了する。一方、観察補助装置200は、第1距離が所定距離を跨って減少していないと判定すると(ステップS573NO)、ステップS58を省略して、ステップS56で決定した出力位置に従って補助情報を出力し(ステップS59)その後、補助情報出力処理を終了する。
図8に示す補助情報出力処理では、観察補助装置200は、観察装置100から観察補助装置200までの距離に基づいて補助情報3の出力を停止し、また、観察装置100から観察補助装置200までの距離に基づいて補助情報3の出力を開始する。より具体的には、観察補助装置200は、観察補助装置200が観察装置100に比較的近くに位置した状態(例えば、ユーザの目がアイポイントに位置する状態)から比較的遠くに位置した状態(例えば、ユーザの目がアイポイントから離れた位置にある状態)に変化したときに、補助情報3の出力を停止し、その後、観察補助装置200が観察装置100に比較的近くに位置した状態に変化するまで、出力の停止が維持される。また、観察補助装置200は、観察補助装置200が観察装置100に比較的遠くに位置した状態から比較的近くに位置した状態に変化したときに、補助情報3の出力を開始し、その後、観察補助装置200が観察装置100に比較的遠くに位置した状態に変化するまで、継続して補助情報3が出力される。
これにより、ユーザの目がアイポイントに位置する場合には、観察補助装置200から補助情報3が出力されるため、図9に示すように、ユーザは、補助情報3が光学画像1に重畳された重畳画像4を観察することができる。また、ユーザが接眼レンズ102を覗いていない状態では、ユーザの目がアイポイントから離れているため、観察補助装置200から補助情報3が出力されず、補助情報3がユーザの視界を無駄に妨げることがない。さらに、ユーザの目がアイポイントから離れた状態でユーザが接眼レンズ102を覗いているとしても、図9に示すように、接眼レンズ102から観察できる光学画像7は、視野周辺がケラレた不完全な画像である。このため、ユーザの目がアイポイントから離れた状態で補助情報3が出力されていないことに、実質的な悪影響はない。
システム1000は、図6に示す補助情報出力処理の代わりに、図8に示す補助情報出力処理を行った場合であっても、図6に示す補助情報出力処理を行った場合を同様の効果を得ることができる。また、図8に示す補助情報出力処理を行うことで、観察装置100から離れた状態では、観察補助装置200から補助情報3が出力されないため、観察装置100で試料を観察していない状態において補助情報3が表示されてユーザの視界が遮られるといった事態を回避することができる。さらに、図8に示す補助情報出力処理を行うことで、観察装置100に近づいて接眼レンズ102を覗くだけで、補助情報3の出力が開始される。このため、ユーザが試料を観察するときだけ自動的に補助情報3が出力されるため、ユーザに負担を強いることがなく補助情報3を必要なタイミングで提供することができる。
図10は、本実施形態に係るシステム1000の機能的構成を説明する図である。以下、図10を参照しながら、システム1000の機能について説明する。
システム1000に含まれる観察装置100は、図10に示すように、制御部110と、撮影部120と、送信部130と、発信部140を備えている。制御部110は、例えば、図1に示す制御装置105によって構成される。制御部110は、プロセッサとメモリを含み、観察装置100の動作を制御する。撮影部120は、例えば、図1に示すデジタルカメラ103によって構成される。撮影部120は、試料のデジタル画像を取得し、制御部110へ出力する。送信部130は、例えば、無線通信装置であり、観察補助装置200へ補助情報を送信する。なお、補助情報は、例えば、撮影部120で撮影されたデジタル画像を解析することで制御部110によって生成されるが、必ずしもデジタル画像に基づいて生成されなくてもよい。発信部140は、例えば、発信機104によって構成される。発信部140は、相対位置の検出のための位置信号を発信する。
システム1000に含まれる観察補助装置200は、図10に示すように、制御部210と、出力部220と、受信部230と、受信部240を備えている。制御部210は、プロセッサとメモリを含み、観察補助装置200の動作を制御する。出力部220は、補助情報を出力する。受信部230は、例えば、無線通信装置であり、観察装置100から補助情報を受信する。受信部240は、例えば、受信機201によって構成される。受信部240は、相対位置の検出のための位置信号を受信する。
図11から図13は、出力部220の構成例を説明する図である。図11に示す例では、出力部220は、表示素子281と、レンズ284と、凹面鏡285を含んでいる。表示素子281は、例えば、液晶ディスプレイ(LCD)である。表示素子281からの光がレンズ284及び凹面鏡285を介して瞳孔から目300に入射し、網膜に表示素子281の像が投影される。図11に示す装置は、網膜投影方式の装置の一例である。観察補助装置200は、網膜投影方式の装置を含んでもよい。
図12に示す例では、出力部220は、MEMS(Micro Electro Mechanical Systems)ミラー286と、凹面鏡285を含んでいる。MEMSミラー286を制御することで、瞳孔から目300に入射した光で網膜を走査する。図12に示す装置は、網膜走査方式の装置の一例である。観察補助装置200は、網膜走査方式の装置を含んでもよい。
図13に示す例では、出力部220は、表示素子287と、レンズ288と、回折式導光素子289を含んでいる。表示素子287は、例えば、液晶ディスプレイ(LCD)である。表示素子287からの光はレンズ288を介して回折式導光素子289へ入射する。回折式導光素子289は、例えば、透明な平板と回折光学素子を含んでいる。回折式導光素子289へ入射した光が回折反射を繰り返して進行することで、目300の前に位置する回折光学素子に到達し、画像(補助情報8)が再生される。図13に示す装置は、ホログラム方式の装置の一例である。観察補助装置200は、ホログラム方式の装置を含んでもよい。
[第2の実施形態]
図14は、本実施形態に係るシステムの機能的構成を説明する図である。本実施形態に係るシステム(以降、単に、本システムと記す。)は、図14に示すように、観察装置100aと、観察装置100aと通信可能な観察補助装置200aを含んでいる。
観察装置100aは、発信部140の代わりに受信部150を含む点が、観察装置100とは異なる。観察補助装置200aは、受信部240の代わりに発信部250を含む点が、観察補助装置200とは異なる。
即ち、本システムは、観察装置100aが相対位置を検出するための位置信号の受信側として機能し、観察補助装置200aが発信側として機能する点が、システム1000とは異なっている。さらに、本システムでは、相対位置が観察装置100aで算出されるため、観察装置100aから観察補助装置200aへ補助情報とともに相対位置に関する情報も送信される。本システムによっても、システム1000と同様の効果を得ることができる。
[第3の実施形態]
図15は、本実施形態に係るシステムの機能的構成を説明する図である。本実施形態に係るシステム(以降、単に、本システムと記す。)は、図15に示すように、観察装置100bと、観察装置100bと通信可能な観察補助装置200bを含んでいる。
観察装置100bは、発信部140を含まない点が、観察装置100とは異なる。観察補助装置200bは、受信部240の代わりに撮影部270を含む点が、観察補助装置200とは異なる。撮影部270は、網膜の画像を撮影する撮影装置であり、観察補助装置200bを装着したユーザの網膜の画像を撮影し、制御部210は、撮影部270で撮影した画像に基づいて相対位置を検出する。即ち、本システムは、観察補助装置200b単独で、相対位置を検出する点が、システム1000とは異なっている。
図16は、出力部260と撮影部270の構成の一例を説明する図である。図17は、撮影部270で撮影された画像の一例を示した図である。図16に示す例では、出力部260は、図11に示す出力部220と同じ構成を有し、ユーザの網膜に画像を投影する網膜投影装置である。即ち、出力部260は、表示素子281と、レンズ284と、凹面鏡285を含んでいる。表示素子281からの光がレンズ284及び凹面鏡285を介して瞳孔から目300に入射し、網膜に表示素子281の像が投影される。
撮影部270は、撮像素子282と、ハーフミラー283と、レンズ284と、凹面鏡285を含んでいる。網膜からの光は瞳孔を通過して凹面鏡285及びレンズ284を介してハーフミラー283に入射する。さらに、ハーフミラー283で反射した光が撮像素子282に照射されることで、撮像素子282に網膜の像が投影される。
撮影部270が網膜の画像を撮影するとき、出力部260は、位置検出用画像を網膜に投影する。具体的には、出力部260は、例えば、ユーザが接眼レンズ102に近づくと、表示素子281に接眼レンズ102の視野数に合わせたサイズの円環を表示し、相対位置検出用画像10を網膜に投影する。出力部260は、表示素子281が可視域外の光を発光することで、可視域外の光で相対位置検出用画像10を網膜へ投影することが望ましい。可視域外の光としては、例えば、赤外光を用いることが望ましい。撮影部270は、出力部260で相対位置検出用画像10を網膜に投影している期間中に網膜の画像を撮影する。これにより、接眼レンズ102を介して網膜に投影されている画像9と相対位置検出用画像10を含む画像が、撮影部270によって撮影される。
観察補助装置200bでは、制御部210は、出力部260で相対位置検出用画像10を網膜に投影している期間中に撮影部270で撮影した網膜の画像に基づいて相対位置を検出する。より具体的には、画像9と相対位置検出用画像10に基づいて相対位置を検出してもよく、例えば、画像9と相対位置検出用画像10の中心位置を比較することで相対位置を検出してもよい。
本システムによっても、システム1000と同様の効果を得ることができる。また、本システムによれば、従来の観察装置100に対する変形を最小限に抑えることができる。
[第4の実施形態]
図18は、本実施形態に係るシステムの機能的構成を説明する図である。図19は、観察補助装置200cにおける補助情報の出力例を示す図である。本実施形態に係るシステム(以降、単に、本システムと記す。)は、図18に示すように、観察装置100と、観察装置100と通信可能な観察補助装置200cを含んでいる。なお、観察装置100では、送信部130は、補助情報とともにデジタル画像を観察補助装置200cへ送信する。
観察補助装置200cは、向き検出部291を含む点が、観察補助装置200とは異なる。向き検出部291は、観察補助装置200cの向きを検出するセンサを含んでいる。観察補助装置200cは、相対位置と向き検出部291で検出された向きが所定の条件を満たすときに、観察装置100で撮影されたデジタル画像を補助情報として出力する。これにより、ユーザが試料をステージにセットする作業を支援することができる。
所定の条件は、例えば、観察装置100と観察補助装置200の距離が所定距離(第3距離)以上で所定距離(第4距離(>第3距離))未満であり、且つ、検出された向きが所定の向き(例えば、斜め下向きなど)であることであってもよい。所定の条件は、ユーザが試料(容器)をステージにセットするときに満たされる条件であればよい。
これにより、図19に示すように、ユーザが試料をステージにセットする作業中に、デジタル画像2が確認することができるため、接眼レンズ102を覗くことなく試料をステージの適切な位置に配置することが可能となる。なお、第3距離は、図8に示す第1距離と同じであってもよい。
[第5の実施形態]
図20は、本実施形態に係るシステムの機能的構成を説明する図である。図21は、観察補助装置200dにおける補助情報の出力例を示す図である。本実施形態に係るシステム(以降、単に、本システムと記す。)は、図20に示すように、観察装置100と、観察装置100と通信可能な観察補助装置200dを含んでいる。
観察補助装置200dは、照度検出部292を含む点が、観察補助装置200とは異なる。照度検出部292は、観察補助装置200の周囲の明るさを検出する照度センサを含んでいる。観察補助装置200dは、図21に示すように、相対位置が所定の条件を満たすときに、観察装置100の位置を示す画像(ワイヤーフレーム11)を補助画像として出力する。より望ましくは、観察補助装置200dは、相対位置と照度検出部292で検出された照度が所定の条件を満たすときに、観察装置100の位置を示す画像を補助画像として出力することが望ましい。
所定の条件は、例えば、観察装置100と観察補助装置200の距離が所定距離(第3距離)以上で所定距離(第4距離(>第3距離))未満であることであってもよい。また、観察装置100と観察補助装置200の距離が所定距離(第3距離)以上で所定距離(第4距離(>第3距離))未満であることであり、且つ、検出された照度が所定値未満であることであってもよい。所定の条件は、ユーザが観察装置100にある程度近づいたときに満たされる条件であればよく、より望ましくは、暗い環境でユーザが観察装置100にある程度近づいたときに満たされる条件であればよい。
これにより、図21に示すように観察装置100のワイヤーフレーム11が表示されるため、ユーザは暗室内で試料を観察する場合であっても、観察装置100の位置を、観察補助装置200を通じて把握することができる。従って、暗室内での観察作業をスムーズに行うことができる。なお、第3距離は、図8に示す第1距離と同じであってもよい。
上述した実施形態は、発明の理解を容易にするために具体例を示したものであり、本発明はこれらの実施形態に限定されるものではない。上述の実施形態を変形した変形形態および上述した実施形態に代替する代替形態が包含され得る。つまり、各実施形態は、その趣旨および範囲を逸脱しない範囲で構成要素を変形することが可能である。また、1つ以上の実施形態に開示されている複数の構成要素を適宜組み合わせることにより、新たな実施形態を実施することができる。また、各実施形態に示される構成要素からいくつかの構成要素を削除してもよく、または実施形態に示される構成要素にいくつかの構成要素を追加してもよい。さらに、各実施形態に示す処理手順は、矛盾しない限り順序を入れ替えて行われてもよい。即ち、本発明の観察システム、及び、観察支援方法は、特許請求の範囲の記載を逸脱しない範囲において、さまざまな変形、変更が可能である。
上述した実施形態では、例えば、図2において、観察装置で取得したデジタル画像2に基づいて補助情報3を生成する例を示したが、補助情報は、必ずしもデジタル画像に基づいて生成される必要はない。補助情報は、例えば、対物レンズ101の倍率など観察装置100の設定に関する情報であってもよく、ユーザは、図22に示すように、対物レンズ101の倍率を示す補助情報“20×”を光学画像に重ねた重畳画像12を観察してもよい。また、補助情報は、図22に示すような観察装置から取得した情報に限らない。補助情報は、例えば、所定の時刻からの経過時間や所定時間までの残り時間などの時間に関する情報であってもよく、ユーザは、図23に示すように、時間を示す補助情報“00:01:35”を光学画像に重ねた重畳画像13を観察してもよい。
上述した実施形態では、図10において、観察装置100に発信部140を含み、観察補助装置200に受信部240を含む構成を例示し、図14において、観察装置100aに受信部150を含み、観察補助装置200に発信部250を含む構成を例示した。即ち、システムでは、観察装置と観察補助装置の一方が、相対位置を検出するための信号を発信する発信部を含み、他方が、相対位置を検出するための信号を受信する受信部を含んでいればよい。
上述した実施形態では、観察補助装置の具体例として、スマートグラス、シースルー型のヘッドマウントディスプレイ、スマートコンタクトレンズを例示したが、スマートグラス又はシースルー型のヘッドマウントディスプレイを観察補助装置として使用する場合、裸眼で接眼レンズ102を覗く場合よりもアイレリーフが短いと観察補助装置が干渉して目をアイポイントに置くことができないことがある。このため、観察装置は、所謂ハイアイポイントの接眼レンズ102を含むことが望ましく、例えば、観察装置は、40mm以上のアイレリーフを有することが望ましい。
本明細書において、“Aに基づいて”という表現は、“Aのみに基づいて”を意味するものではなく、“少なくともAに基づいて”を意味している。即ち、“Aに基づいて”はAに加えてBに基づいてもよい。
1 光学画像
2 デジタル画像
3、8 補助情報
4~6、12、13 重畳画像
7、9 画像
10 相対位置検出用画像
11 ワイヤーフレーム
100、100a~100c 観察装置
101 対物レンズ
102 接眼レンズ
103 デジタルカメラ
104 発信機
105 制御装置
110、210 制御部
120、270 撮影部
130 送信部
140、250 発信部
150、230、240 受信部
200、200a~200d 観察補助装置
201 受信機
210 制御部
220、260 出力部
281、287 表示素子
282 撮像素子
283 ハーフミラー
284、288 レンズ
285 凹面鏡
286 MEMSミラー
289 回折式導光素子
291 向き検出部
292 照度検出部
300 目
1000 システム

Claims (16)

  1. 接眼レンズと対物レンズを含み、前記接眼レンズと前記対物レンズの間の光路上に試料の実像を形成する観察装置と、
    ユーザに装着され、前記ユーザに補助情報を出力する観察補助装置であって、前記観察補助装置の前記観察装置に対する相対位置に基づいて前記接眼レンズを介して前記ユーザによって観察される前記試料の虚像に前記補助情報を重ねる観察補助装置と、を備える
    ことを特徴とする観察システム。
  2. 請求項1に記載の観察システムにおいて、
    前記観察補助装置は、前記接眼レンズの光軸から前記観察補助装置までの距離と方向に基づいて前記補助情報の出力位置を変更する
    ことを特徴とする観察システム。
  3. 請求項1又は請求項2に記載の観察システムにおいて、
    前記観察補助装置は、前記観察装置から前記観察補助装置までの距離に基づいて前記補助情報の出力を停止する
    ことを特徴とする観察システム。
  4. 請求項1乃至請求項3のいずれか1項に記載の観察システムにおいて、
    前記観察装置と前記観察補助装置の一方は、前記相対位置を検出するための信号を発信する発信部を含み、
    前記観察装置と前記観察補助装置の他方は、前記相対位置を検出するための信号を受信する受信部を含む
    ことを特徴とする観察システム。
  5. 請求項4に記載の観察システムにおいて、
    前記信号は、可視域外の電磁波、又は、超音波の少なくとも一方を含む
    ことを特徴とする観察システム。
  6. 請求項4又は請求項5に記載の観察システムにおいて、
    前記観察装置と前記観察補助装置は、三点測位で前記相対位置を検出する
    ことを特徴とする観察システム。
  7. 請求項1乃至請求項3のいずれか1項に記載の観察システムにおいて、
    前記観察補助装置は、
    前記ユーザの網膜に画像を投影する網膜投影装置と、
    前記網膜の画像を撮影する撮影装置と、を含み、
    前記網膜投影装置で相対位置検出用画像を前記網膜に投影している期間中に前記撮影装置で撮影した前記網膜の画像に基づいて前記相対位置を検出する
    ことを特徴とする観察システム。
  8. 請求項7に記載の観察システムにおいて、
    前記観察補助装置は、それぞれ前記網膜の画像に含まれている、前記網膜に投影された前記相対位置検出用画像と、前記網膜に投影された前記試料の画像と、に基づいて前記相対位置を検出する
    ことを特徴とする観察システム。
  9. 請求項7又は請求項8に記載の観察システムにおいて、
    前記網膜投影装置は、可視域外の光で前記相対位置検出用画像を前記網膜へ投影する
    ことを特徴とする観察システム。
  10. 請求項9に記載の観察システムにおいて、
    前記可視域外の光は、赤外光である
    ことを特徴とする観察システム。
  11. 請求項1乃至請求項10のいずれか1項に記載の観察システムにおいて、
    前記観察補助装置は、スマートグラス、シースルー型のヘッドマウントディスプレイ、又は、スマートコンタクトレンズの少なくとも一つを含む
    ことを特徴とする観察システム。
  12. 請求項1乃至請求項11のいずれか1項に記載の観察システムにおいて、
    前記観察補助装置は、網膜投影方式、網膜走査方式、ホログラム方式、又は、マイクロLED方式の装置の少なくとも一つを含む
    ことを特徴とする観察システム。
  13. 請求項1乃至請求項12のいずれか1項に記載の観察システムにおいて、
    前記観察補助装置は、
    さらに、前記観察補助装置の向きを検出するセンサを備え、
    前記相対位置と前記センサで検出された向きが所定の条件を満たすときに、前記観察装置で撮影された前記試料の画像を前記補助情報として出力する
    ことを特徴とする観察システム。
  14. 請求項1乃至請求項13のいずれか1項に記載の観察システムにおいて、
    前記観察補助装置は、前記相対位置が所定の条件を満たすときに、前記観察装置の位置を示す画像を前記補助情報として出力する
    ことを特徴とする観察システム。
  15. 請求項1乃至請求項14のいずれか1項に記載の観察システムにおいて、
    前記観察装置は、40mm以上のアイレリーフを有する
    ことを特徴とする観察システム。
  16. 接眼レンズと対物レンズを含む観察装置が、前記接眼レンズと前記対物レンズの間の光路上に試料の実像を形成し、
    ユーザに装着された観察補助装置が、前記ユーザに補助情報を出力し、前記観察補助装置の前記観察装置に対する相対位置に基づいて前記接眼レンズを介して前記ユーザによって観察される前記試料の虚像に前記補助情報を重ねる
    ことを特徴とする観察支援方法。
JP2021073573A 2021-04-23 2021-04-23 観察システム、及び、観察支援方法 Pending JP2022167637A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021073573A JP2022167637A (ja) 2021-04-23 2021-04-23 観察システム、及び、観察支援方法
US17/724,688 US12033242B2 (en) 2021-04-23 2022-04-20 Observation system and observation support method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021073573A JP2022167637A (ja) 2021-04-23 2021-04-23 観察システム、及び、観察支援方法

Publications (1)

Publication Number Publication Date
JP2022167637A true JP2022167637A (ja) 2022-11-04

Family

ID=83694407

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021073573A Pending JP2022167637A (ja) 2021-04-23 2021-04-23 観察システム、及び、観察支援方法

Country Status (2)

Country Link
US (1) US12033242B2 (ja)
JP (1) JP2022167637A (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024096762A1 (en) * 2022-10-31 2024-05-10 Telefonaktiebolaget Lm Ericsson (Publ) Eye-worn device for displaying information to an observer

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11327566B2 (en) * 2019-03-29 2022-05-10 Facebook Technologies, Llc Methods and apparatuses for low latency body state prediction based on neuromuscular data
JP6947841B2 (ja) 2017-06-13 2021-10-13 グーグル エルエルシーGoogle LLC 病理学用の拡張現実顕微鏡
JP2022547579A (ja) * 2019-09-13 2022-11-14 アリゾナ ボード オブ リージェンツ オン ビハーフ オブ ザ ユニバーシティー オブ アリゾナ 瞳整合オクルージョン対応光学シースルー頭部搭載型ディスプレイ
JP7377769B2 (ja) * 2020-06-08 2023-11-10 Hoya株式会社 プログラム、情報処理方法及び情報処理装置

Also Published As

Publication number Publication date
US20220343560A1 (en) 2022-10-27
US12033242B2 (en) 2024-07-09

Similar Documents

Publication Publication Date Title
EP0837603A2 (en) System for controlling the focus of variable-focus lenses by detection of the spatial relationship of the eyes of a person
CN107533362A (zh) 眼睛跟踪设备和用于操作眼睛跟踪设备的方法
JP2006308674A (ja) 画像表示装置
JP2002529763A (ja) 視線追跡システム
JP2003521950A6 (ja) 視標追跡システム
JP2008212308A (ja) 眼底カメラ
JP2018182570A (ja) 視線情報共有方法および視線情報共有システム
EP3649913A1 (en) Medical observation device
JP2006208407A (ja) 立体画像観察用顕微鏡システム
WO2022036302A1 (en) Systems and methods for superimposing virtual image on real-time image
JP3143553B2 (ja) ファインダー装置
JP2022167637A (ja) 観察システム、及び、観察支援方法
CN115103094A (zh) 一种基于注视点的摄像头模组远视角调节方法及系统
JP2011524699A (ja) 複数の動作モードの光学機器
CN106455975A (zh) 增大景深显微镜以及相关的装置、系统和方法
EP4238479A1 (en) Ophthalmological observation device
CN110794590B (zh) 虚拟现实显示系统及其显示方法
CN111630847B (zh) 影像投影装置、影像投影方法、影像显示光输出控制方法
US12048485B2 (en) Surgery 3D visualization apparatus
US10051256B2 (en) Image observation apparatus
EP4027198A1 (en) Electronic apparatus, electronic apparatus control method, program, and storage medium
JP2010082281A (ja) 眼底カメラ
JPH10307314A (ja) 観察光学装置
JP2017055233A (ja) 表示装置、表示システム、及び、表示装置の制御方法
JPH11168755A (ja) 立体映像撮像装置

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20220622

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20231110

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240314