JP2025123735A - small optical device - Google Patents
small optical deviceInfo
- Publication number
- JP2025123735A JP2025123735A JP2024019374A JP2024019374A JP2025123735A JP 2025123735 A JP2025123735 A JP 2025123735A JP 2024019374 A JP2024019374 A JP 2024019374A JP 2024019374 A JP2024019374 A JP 2024019374A JP 2025123735 A JP2025123735 A JP 2025123735A
- Authority
- JP
- Japan
- Prior art keywords
- image
- optical
- optical device
- target object
- deep learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Processing (AREA)
- Transforming Light Signals Into Electric Signals (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、高精度、高コントラスト、且つ小型化が可能な小型光学装置に係り、光検出器を用いたイメージングの再構成プロセスにおいて差分検出法を導入することにより,コントラスト比の向上し、さらにSPIを搭載し、深層学習により各種ノイズを抑制する小型光学装置に関する。
The present invention relates to a compact optical device that is highly accurate, high contrast, and compact, and that improves the contrast ratio by introducing a differential detection method into the imaging reconstruction process using a photodetector.The present invention also relates to a compact optical device that is equipped with SPI and suppresses various types of noise through deep learning.
シングルピクセルイメージング(Single-pixel imaging: SPI)と呼ばれる単一画素検出器を用いたイメージング技術が注目されている(非特許文献1)。SPIは物体を空間的に分布する符号化パターンでフィルタリングし、フィルタリングされた光強度を光相関信号として取得し、符号化パターンを次々と変化させ、各符号化パターンとの光相関信号を取得していた。原理的には得られた光相関信号を 、各パターンが各行列にあたる行列を とすると、対象物体xとの関係はI=HXと表される。これに対して、xの逆行列を解くことで対象物体xの情報が復元可能となっていた。或いは、直交基底行列から生成された符号化パターンを用いることで、逆問題を解析的に解く方法がよく知られていた。SPIは、X線からTHzに渡る広波長域や微弱光でのイメージングが可能であること、2次元撮像素子と比べ耐ノイズ性を有する等の利点があるが、ノイズが多い時のイメージングは、画像精度が劣っていた。この為光相関イメージングを開発し,再構成プロセスにて深層学習を導入することで耐ノイズ性の向上が提案されていた(特許文献1)。またノイズを補正する技術に補償光学がある。補償光学の基本的な構成は波面センサと波面補正素子であり、波面センサによって波面の状態を測定し、測定を基に波面補正素子を制御していた(非特許文献2)。但し、これらのデバイスは非常に高額であり,また暗い環境下では波面の状態の測定が難しいといった欠点があった。
Single-pixel imaging (SPI), an imaging technology using a single-pixel detector, has attracted attention (Non-Patent Document 1). SPI filters an object with a spatially distributed coding pattern, acquires the filtered light intensity as an optical correlation signal, and then sequentially changes the coding pattern to acquire the optical correlation signal with each coding pattern. In principle, if the obtained optical correlation signal is and the matrix where each pattern corresponds to each matrix is , the relationship with the target object x can be expressed as I = HX. Information about the target object x can be reconstructed by solving the inverse matrix of x. Alternatively, a well-known method is to analytically solve the inverse problem using a coding pattern generated from an orthogonal basis matrix. SPI has advantages such as imaging with a wide wavelength range from X-rays to THz and with weak light, and being more noise-resistant than 2D image sensors. However, imaging with high noise levels results in poor image accuracy. For this reason, optical correlation imaging was developed, and a proposal was made to improve noise resistance by incorporating deep learning into the reconstruction process (Patent Document 1). Adaptive optics is also a noise-correcting technology. The basic components of adaptive optics are a wavefront sensor and a wavefront correction element, and the wavefront state is measured by the wavefront sensor and the wavefront correction element is controlled based on the measurement (Non-Patent Document 2). However, these devices have drawbacks such as being very expensive and making it difficult to measure the wavefront state in dark environments.
従来技術のSPI(Single-pixel imaging)は微弱な信号に対してはノイズの影響で中々鮮明な画像を得ることは難しかった。また、これらノイズを補正するために補償光学を使い、その基本構成の波面センサと波面補正素子によりノイズ低減する技術はあった。但し、これらのデバイスは非常に高額であり,また暗い環境下では波面の状態の測定が難しいといった課題があった。
Conventional SPI (Single-pixel imaging) technology has difficulty obtaining clear images from weak signals due to the influence of noise. To correct this noise, adaptive optics was used, and noise reduction technology existed using the wavefront sensor and wavefront correction element that comprise its basic components. However, these devices were very expensive, and had issues such as difficulty in measuring the wavefront state in dark environments.
前記課題を解決するための手段として、単一画素光検出器を用いたイメージングの再構成プロセスにおいて差分検出法を導入する。これにより,コントラスト比の向上が可能となりより鮮明な再構成像の取得が可能となる。さらに、光学系にSPIを搭載するとともに得られた検出データを深層学習によりノイズを抑制させることで画質改善を行う。
To solve this problem, we introduce a differential detection method into the reconstruction process of imaging using a single-pixel photodetector. This improves the contrast ratio and enables the acquisition of clearer reconstructed images. Furthermore, we improve image quality by incorporating SPI into the optical system and suppressing noise in the obtained detection data using deep learning.
本発明による深層学習に基づくSPIシステムは、様々な光学系にSPIを搭載した光相関プロセスと深層学習による再構成プロセスから構成される.光相関プロセスでは、対象物体を光学系でとらえ、その物体像を符号化パターンに照射することで光検出器によって光相関信号を取得する。再構成プロセスでは光相関プロセスで取得した光相関信号の差をとった信号を深層学習に入力する。本手法を用いることで、対象物体のイメージング時に影響を与える様々なノイズ成分による像の劣化を抑制し、高精度な再構成像の取得が期待できる等の効果がある。更に、用いる光学系は高精度に構成する必要が無いので小型、低コスト化が可能となる。
The deep learning-based SPI system of this invention consists of an optical correlation process in which SPI is installed in various optical systems, and a deep learning-based reconstruction process. In the optical correlation process, the target object is captured by the optical system, and the object image is illuminated onto an encoded pattern to obtain an optical correlation signal using a photodetector. In the reconstruction process, a signal obtained by taking the difference between the optical correlation signals obtained in the optical correlation process is input into deep learning. Using this method has the effect of suppressing image degradation caused by various noise components that affect the imaging of the target object, and is expected to enable the acquisition of highly accurate reconstructed images. Furthermore, since the optical system used does not need to be configured with high precision, it can be made smaller and less expensive.
以下、本発明の実施形態について、図面を用いて説明する。全図を通じて同一の構成には同一の符号を付けてその重複説明は省略する。以下の実施形態においては、本発明に係る小型光学装置を例に挙げて説明する。 Embodiments of the present invention will be described below with reference to the drawings. Identical components throughout the drawings will be assigned the same reference numerals, and duplicate explanations will be omitted. In the following embodiments, a compact optical device according to the present invention will be described as an example.
図1は本発明の実施形態の小型光学装置1を含む全体構成の一例を示した図である。図1の小型光学装置1は光学系11とシステム制御・処理機能12から構成される。図の光学系11は遠方の対象物からの光を反射型光学系で拡大する反射望遠鏡タイプの光学系を例として示しているがこれに限ることはなく、双眼鏡タイプ、透過型等の顕微鏡タイプでも良い。また映像を撮影するカメラ機器でも良い。この小型光学装置1における光学系の構成は,マクストフ・カセグレン望遠鏡とDMD(Digital Mirror Device)10と2台の光検出器8a、8bからなる。この場合の対象物体4は遠方の星を想定している。星からの微弱な光信号は集光レンズ5に入り、主鏡6で反射され副鏡7で反射されて焦点面に入射される。マクストフ・カセグレン望遠鏡の焦点面とDMD10の間に3つのレンズ9a、9b、9cを入れ,そのレンズは可動出来るようになっている。これによりDMD10に照射する対象物体4の像の大きさや焦点位置を任意に調整できるようになる。またDMD10に入射した光が2方向に反射することを利用し,それぞれの反射の先に光検出器8a、8bが設置されている。 Figure 1 shows an example of the overall configuration including a compact optical device 1 according to an embodiment of the present invention. The compact optical device 1 in Figure 1 is composed of an optical system 11 and a system control/processing function 12. The optical system 11 in the figure is an example of a reflecting telescope-type optical system that magnifies light from a distant object using a reflective optical system, but is not limited to this. It can also be a binocular type, a microscope type such as a transmission type, or a camera device that captures images. The optical system in this compact optical device 1 is composed of a Maksutov-Cassegrain telescope, a DMD (Digital Mirror Device) 10, and two photodetectors 8a and 8b. In this case, the target object 4 is assumed to be a distant star. A weak optical signal from the star enters a focusing lens 5, is reflected by a primary mirror 6, and then by a secondary mirror 7, and is incident on the focal plane. Three lenses 9a, 9b, and 9c are inserted between the focal plane of the Maksutov-Cassegrain telescope and the DMD 10, and these lenses are movable. This makes it possible to arbitrarily adjust the size and focal position of the image of the target object 4 illuminated on the DMD 10. In addition, by taking advantage of the fact that light incident on the DMD 10 is reflected in two directions, photodetectors 8a and 8b are installed at the end of each reflection.
上述の各機能の動作の制御及び計算処理を行うのがシステム制御・処理機能12でありCPU13、ROM14、RAM15、外部メモリ16、システムバス18で構成されている。その他には対象物体の詳細画像を表示する表示部17からなる。CPU13は光学系11内の光検出器8a、8b、D M D10の電源のON/OFFや細かな制御や各種設定値の設定、後述する対象物体4の画像処理計算を行うプログラムの制御や各種コマンドセット等を行う。ROM14にはシステムのソフトウェアや処理計算プログラムやそれらの初期値等が記録されている。RAM15はCPU13行われる各種ソフトウェアの実行処理を行う、或いは計算処理等で一時的に記録されたデータや設定値を記録するためのメモリー空間である。外部メモリ16はROM14やRAM15に保存しきれないデータや以前のデータ等を保持しておくためのメモリである。あるいはソフトウェアのアップデータ等の保存や新たな設定値の保存等にも利用できる。後述するCPU13で画像処理計算された対象物体4の画像データは表示部17で表示される。これらデータ等はシステムバス18でデータは送受信される。前記データはインターネット19を介して外部へ送受信しても良い。 The system control and processing function 12 controls the operation of the above-mentioned functions and performs calculations. It is composed of a CPU 13, ROM 14, RAM 15, external memory 16, and system bus 18. It also includes a display unit 17 that displays detailed images of the target object. The CPU 13 turns the power on and off for the photodetectors 8a, 8b, and DMD 10 in the optical system 11, performs detailed control, sets various settings, controls the program that performs the image processing calculations for the target object 4 described below, and sets various commands. The ROM 14 stores system software, processing calculation programs, and their initial values. The RAM 15 is a memory space for executing various software programs performed by the CPU 13, or for recording data and settings temporarily recorded during calculations, etc. The external memory 16 is memory for retaining data that cannot be stored in the ROM 14 or RAM 15, as well as previous data. It can also be used to store software updates, new settings, etc. Image data of the target object 4 processed and calculated by the CPU 13 (described below) is displayed on the display unit 17. This data is sent and received via the system bus 18. The data may be sent and received externally via the Internet 19.
図2は本実施例の小型光学装置1のソフトウェア構成図であり、CPU13、ROM14、RAM15、及び外部メモリ16、システムバス18からなる。
CPU13は、所定のプログラムに従って小型光学装置1全体を制御するマイクロプロセッサユニットである。システムバス18はCPU13と小型光学装置1内の各部との間でデータ送受信を行うためのデータ通信路である。
FIG. 2 is a diagram showing the software configuration of the compact optical device 1 of this embodiment, which comprises a CPU 13, a ROM 14, a RAM 15, an external memory 16, and a system bus 18.
The CPU 13 is a microprocessor unit that controls the entire compact optical device 1 in accordance with a predetermined program. The system bus 18 is a data communication path for transmitting and receiving data between the CPU 13 and each part in the compact optical device 1.
ROM(Read Only Memory)14は、オペレーティングシステムなどの基本動作プログラムやその他のアプリケーションプログラムが格納されたメモリであり、例えばEEPROM(Electrically Erasable Programmable ROM)やフラッシュROMのような書き換え可能なROMが用いられ、ROM14に格納されたプログラムを更新することにより、基本動作プログラムやその他のアプリケーションプログラムのバージョンアップや機能拡張が可能である。 ROM (Read Only Memory) 14 is memory that stores basic operating programs such as the operating system and other application programs. Rewritable ROM such as EEPROM (Electrically Erasable Programmable ROM) or flash ROM is used, and by updating the programs stored in ROM 14, it is possible to upgrade or expand the functionality of the basic operating programs and other application programs.
RAM(Random Access Memory)15は基本動作プログラムやその他のアプリケーションプログラム実行時のワークエリアとなる。具体的には、例えばROM14に格納された基本動作プログラム14aはRAM15に展開され、更にCPU13が前記展開された基本動作プログラムを実行することにより、基本動作実行部15aを構成する。以下では、説明を簡単にするために、CPU13がROM14に格納された基本動作プログラム14aをRAM15に展開して実行することにより各部の制御を行う処理を、基本動作実行部15aが各部の制御を行うものとして記述する。なお、その他のアプリケーションプログラムに関しても同様の記述を行うものとする。 RAM (Random Access Memory) 15 serves as a work area when the basic operation program and other application programs are executed. Specifically, for example, basic operation program 14a stored in ROM 14 is expanded into RAM 15, and the CPU 13 then executes the expanded basic operation program to form a basic operation execution unit 15a. For simplicity's sake, the following description will be given assuming that the basic operation execution unit 15a controls each unit when the CPU 13 expands the basic operation program 14a stored in ROM 14 into RAM 15 and executes it. Similar descriptions will be used for other application programs.
光強度処理実行部15bは2つの光検出機8a、8bで光強度を電気信号化された電気信号に対して様々なソフトウェアの処理でいわゆる電気信号のレベルとして表される光強度等の補正や電気信号化された光信号をより鮮明にするためのエッジ処理やノイズ除去処理等を行う。光相関計算実行部15c、深層学習計算実行部15d、再構成計算実行部15eについての詳細は後述するが、光検出機8a、8bで得られた光強度に対し様々な光伝搬計算を行いそれによって新たな詳細の対象物体4の各光検出器から作成された2つの光相関信号等を作成する計算を行う処理である。深層学習計算実行部15dは、光相関計算実行部14cで得られた2つの光相関信号を使い、2つの光相関信号の差を取った信号から深層学習に入れて処理をする。深層学習において各種のデータ収集に関してはシステムバス18を経由してインターネット19から各種必要なデータを入手し、それを元に計算する。このデータは常にインターネット19経由で入手する必要はなく、予め外部メモリ16に記録しても良い。また、学習により、新たなデータを再登録しても良い。再構成計算実行部15eは深層学習実行部15dで得られた結果を使い元の物体の画像に再構成する処理である。各種部材の設定値実行部15fは光検出機8a、8b、レンズ9a、9b、9c、D M D10、表示部17等の各種設定値制御や初期値設定等を行う。画像表示実行部15gは後述する再構成計算実行部15eで計算されたデータより再構成された対象物体の詳細画像を表示部17に表示させる処理を行う。一時記憶領域15hは上述の各処理中のデータ等を一時的に記憶する領域である。 The light intensity processing execution unit 15b performs various software processes on the electrical signals converted from the light intensities of the two photodetectors 8a and 8b, including correction of the light intensity, which is expressed as the level of the electrical signal, and edge processing and noise removal to make the converted electrical signals clearer. The optical correlation calculation execution unit 15c, deep learning calculation execution unit 15d, and reconstruction calculation execution unit 15e will be described in detail later. These units perform various light propagation calculations on the light intensities obtained by the photodetectors 8a and 8b, thereby creating two optical correlation signals from each photodetector of the target object 4 in new detail. The deep learning calculation execution unit 15d uses the two optical correlation signals obtained by the optical correlation calculation execution unit 14c, calculates the difference between the two optical correlation signals, and applies this to deep learning. Regarding various data collection tasks in deep learning, various necessary data is obtained from the Internet 19 via the system bus 18 and used for calculations. This data does not always need to be obtained via the Internet 19; it may be stored in advance in external memory 16. New data may also be re-registered through learning. The reconstruction calculation execution unit 15e performs a process of reconstructing an image of the original object using the results obtained by the deep learning execution unit 15d. The setting value execution unit 15f for various components controls various setting values and sets initial values for the photodetectors 8a, 8b, lenses 9a, 9b, 9c, DMD 10, display unit 17, etc. The image display execution unit 15g performs a process of displaying on the display unit 17 a detailed image of the target object reconstructed from the data calculated by the reconstruction calculation execution unit 15e (described below). The temporary storage area 15h is an area for temporarily storing data and the like during each of the above processes.
本実施例の物体形状計測装置1の動作は、図2に示したように、主として外部メモリ16に記憶された光強度処理プログラム16bと、光相関プログラム16c、深層学習プログラム16d、再構成計算プログラム16eと、各種部材の設定プログラム16f、画像表示プログラム16gがRAM15に展開され、CPU13により実行される光強度計算実行部15bと、光相関計算実行部15c、光相関計算実行部15c、深層学習計算実行部15d、再構成計算実行部15eと、各種部材の設定値実行部15f、画像表示実行部15gによって制御されるものとする。各種情報/データ記憶領域16aは各種機能の初期値等を記憶する領域である。前述の光強度計算実行部15bと、光相関計算実行部15c、光相関計算実行部15c、深層学習計算実行部15d、再構成計算実行部15eと、画像表示実行部15gはその一部または全部の動作をハードウェアで実現する各ハードウェアブロックで行っても良い。
ROM14及びRAM15はCPU13と一体構成であっても良い。また、ROM14は、図2に示したような独立構成とはせず、外部メモリ16内の一部記憶領域を使用しても良い。また、RAM15は、各種アプリケーションプログラム実行時に、必要に応じてデータを一時的に保持する一時記憶領域を備えるものとする。
2, the operation of the object shape measuring apparatus 1 of this embodiment is controlled by a light intensity processing program 16b, an optical correlation program 16c, a deep learning program 16d, a reconstruction calculation program 16e, a setting program 16f for various components, and an image display program 16g, which are mainly stored in the external memory 16, expanded into the RAM 15, and executed by the CPU 13: a light intensity calculation execution unit 15b, an optical correlation calculation execution unit 15c, an optical correlation calculation execution unit 15c, a deep learning calculation execution unit 15d, a reconstruction calculation execution unit 15e, a setting value execution unit 15f for various components, and an image display execution unit 15g. The various information/data storage area 16a is an area for storing initial values of various functions, etc. The aforementioned light intensity calculation execution unit 15b, optical correlation calculation execution unit 15c, optical correlation calculation execution unit 15d, deep learning calculation execution unit 15d, reconstruction calculation execution unit 15e, and image display execution unit 15g may be performed by hardware blocks that realize some or all of their operations using hardware.
The ROM 14 and RAM 15 may be integrated with the CPU 13. The ROM 14 may not be an independent configuration as shown in Fig. 2, but may use a partial storage area within the external memory 16. The RAM 15 is also provided with a temporary storage area for temporarily storing data as necessary when various application programs are executed.
外部メモリ16は小型光学装置1の各動作設定値や小型光学装置1の位置情報や各種情報、小型光学装置1が撮影した画像や情報等の一部または全部のデータ、その他プログラムを格納しても良い。 The external memory 16 may store various operational setting values for the compact optical device 1, position information and various other information for the compact optical device 1, some or all of the data such as images and information captured by the compact optical device 1, and other programs.
外部メモリ16の一部領域を以ってROM14の機能の全部または一部を代替しても良い。また、外部メモリ16は、小型光学装置1に電源が供給されていない状態であっても記憶している情報を保持する必要がある。したがって、例えばフラッシュROMやSSD(Solid State Drive)、HDD(Hard Disc Drive)等のデバイスが用いられる。 A portion of the external memory 16 may replace all or part of the functions of the ROM 14. Furthermore, the external memory 16 must retain the stored information even when power is not supplied to the compact optical device 1. Therefore, devices such as flash ROM, SSD (Solid State Drive), and HDD (Hard Disc Drive) are used.
次に本発明の基礎的な技術に関して数式と図3を用いながら説明を行う。光相関プロセスの構成は,マクストフ・カセグレン望遠鏡2とDMD10と2台の光検出器8a、8bと3つのレンズ9a、9b、9cからなる.図3では望遠鏡2を通して対象物体4からの光信号を2つの光検出機8a、8bに入り、光相関信号S1と光相関信号S2が形成される。光相関プロセスにおける光学系ではマクストフ・カセグレン望遠鏡2の焦点面とDMD10の間にレンズ9cを入れ,そのレンズ9cは可動できるようになっており、DMD10に照射する物体像の大きさを任意に調整できる。これらの制御はC U P13によって行われる。またDMD10に入射した光が2方向に反射することを利用し,それぞれの反射の先に光検出器8a、8bを設置されている。 Next, the basic technology of the present invention will be explained using equations and Figure 3. The optical correlation process is configured with a Maksutov-Cassegrain telescope 2, a DMD 10, two photodetectors 8a and 8b, and three lenses 9a, 9b, and 9c. In Figure 3, optical signals from the target object 4 enter the two photodetectors 8a and 8b through the telescope 2, and optical correlation signals S1 and S2 are formed. In the optical system for the optical correlation process, lens 9c is inserted between the focal plane of the Maksutov-Cassegrain telescope 2 and the DMD 10. This lens 9c is movable, allowing the size of the object image projected onto the DMD 10 to be adjusted as desired. This control is performed by the CPU 13. Taking advantage of the fact that light incident on the DMD 10 is reflected in two directions, photodetectors 8a and 8b are installed at the ends of each reflection.
図1の深層学習に基づくSPIシステムは、望遠鏡2にSPI3を搭載した光学系による光相関プロセスと深層学習による再構成プロセスから構成される.光相関プロセスでは、遠方の対象物体4を望遠鏡2でとらえ、その物体像を符号化パターンに照射することで光検出器8a、8bによって光相関信号を取得する.再構成プロセスでは光相関プロセスで取得した光相関信号の差をとった信号を深層学習に入力する。本手法を用いることで、遠方の対象物体のイメージング時に影響を与える大気のゆらぎや望遠鏡本体の振動等のノイズによる像の劣化を抑制し、高精度な再構成像の取得が可能となる。図3の再構成プロセスでは、光相関プロセスにて2台の光検出器8a、8bから取得した光相関信号の差を計算した光相関信号 を入力する。 The deep learning-based SPI system in Figure 1 consists of an optical correlation process using an optical system equipped with SPI 3 on telescope 2, and a deep learning reconstruction process. In the optical correlation process, a distant target object 4 is captured by telescope 2, and the object image is illuminated onto an encoded pattern to obtain an optical correlation signal using photodetectors 8a and 8b. In the reconstruction process, a signal obtained by calculating the difference between the optical correlation signals obtained in the optical correlation process is input to deep learning. This method suppresses image degradation caused by noise such as atmospheric turbulence and vibration of the telescope body, which affect the imaging of distant target objects, making it possible to obtain highly accurate reconstructed images. In the reconstruction process in Figure 3, an optical correlation signal , calculated by calculating the difference between the optical correlation signals obtained from two photodetectors 8a and 8b in the optical correlation process, is input.
ここで、S1、S2はそれぞれの光検出器8a、8bで取得した光相関信号である。深層学習にはここではDNN(Deep Neural Network)方式の深層学習を行う。その概念図を図4に示す。ここでは5層の転置畳み込み層と3層の畳み込み層からなり、正解画像に近づくように得られた画像より大気のゆらぎや望遠鏡本体の振動等のノイズによる影響を低減する学習を行う。大気の揺らぎや望遠鏡の振動とのノイズに関してはインターネット19を介して得られた各種ノイズ成分の特徴や情報から大気の揺らぎのようなランダムノイズ成分や望遠鏡の振動等の特徴である特定の周波数成分のノイズ成分を深層学習により特定し、除去することが可能となる。例えば手振れ補正や振動ノイズの補正では従来の方法では振動センサの情報からその逆成分の補正を光学レンズ等に加えて手ぶれ補正や振動ノイズ低減を行なっていた。これに対し、今回の発明では既にインターネット19上に存在する手振れや的振動ノイズの特徴、大気揺らぎ等のランダムノイズの特徴を収集し、これに深層学習することでセンサ無しにノイズ成分を割り出し除去することが可能となる。更にある程度の学習が出来ればその結果を外部メモリ16等に保存し、より高速に処理することも可能となる。 Here, S1 and S2 are the optical correlation signals acquired by the respective photodetectors 8a and 8b. Deep learning is performed using the DNN (Deep Neural Network) method. A conceptual diagram is shown in Figure 4. This system consists of five transposed convolutional layers and three convolutional layers, and learns to reduce the effects of noise, such as atmospheric turbulence and telescope vibration, from the acquired image so as to approach the target image. Regarding noise caused by atmospheric turbulence and telescope vibration, deep learning can identify and remove random noise components such as atmospheric turbulence and specific frequency components characteristic of telescope vibration, based on the characteristics and information of various noise components obtained via the Internet 19. For example, in the case of image stabilization and vibration noise correction, conventional methods have involved applying inverse component correction based on vibration sensor information to optical lenses, etc., to achieve image stabilization and vibration noise reduction. In contrast to this, the present invention collects the characteristics of camera shake and target vibration noise, and the characteristics of random noise such as atmospheric turbulence, which are already available on the Internet 19, and by performing deep learning on this, it becomes possible to identify and remove noise components without a sensor. Furthermore, once a certain level of learning has been achieved, the results can be saved in the external memory 16, etc., enabling faster processing.
次に具体的な例を示し、本特許の有効性を示す。これを、図5を使って説明する。図5は
天体観測時の光伝搬を模した光学系の概念図である。この光学系を光相関プロセスに用いることで差分検出法を用いたシステムの評価を行った、対象物体にはMNIST (Mixed National Institute of Standards and Technology database)を2048枚、符号化パターンにはアダマールパターン1024枚を使用した。MNISTは pixelの0から9までの数字からなるデータセットで、合計60,000枚である。評価の際には、MNISTを pixelに拡大し、二値化処理を行っている。また、コルモゴロフ乱流理論に則った大気ゆらぎ(ノイズ成分)の空間位相分布を生成し、時間的に変動させることで大気ゆらぎを表現し、ハワイ・マウナケア山頂で口径サイズ51 cmの望遠鏡での観測を想定した。図6に本イメージングシステムの再構成結果を示す。S1、S2は各々の光検出器で再構成した結果、S diffは差分検出法を用いた結果である。比較として深層学習をせずに、SPI再構成式飲みでの再構成結果を示す。SPIにおける再構成像においては差分検出法を用いることでSN比が向上し、S1やS2のみの場合に比べて対象物体のコントラストが向上した(S diff)。また、大気ゆらぎが付与された場合の再構成では深層学習を用いることで対象物体の形が分かる程度まで再構成ができる。更に、差分検出法(S diff)では光検出器1台(S1、S2)のみの光相関信号からの再構成像と比べて再構成精度が向上していることを確認出来た。
Next, we present a specific example to demonstrate the effectiveness of this patent. This will be explained using Figure 5. Figure 5 is a conceptual diagram of an optical system that mimics the propagation of light during astronomical observation. Using this optical system for the optical correlation process, we evaluated a system using differential detection. We used 2,048 MNIST (Mixed National Institute of Standards and Technology database) images as the target objects and 1,024 Hadamard patterns as the encoding patterns. MNIST is a dataset consisting of pixel numbers from 0 to 9, totaling 60,000 images. For the evaluation, we expanded the MNIST data to 1024 pixels and performed binarization. We also generated a spatial phase distribution of atmospheric turbulence (noise components) based on Kolmogorov turbulence theory and varied it over time to represent atmospheric turbulence. We simulated observations using a 51-cm telescope at the summit of Mauna Kea in Hawaii. Figure 6 shows the reconstruction results of this imaging system. S1 and S2 are the results of reconstruction using each photodetector, while Sdiff is the result using differential detection. For comparison, we show the reconstruction results using the SPI reconstruction method without deep learning. In the reconstructed image using SPI, the signal-to-noise ratio was improved by using the differential detection method, and the contrast of the target object was improved compared to when only S1 or S2 was used ( Sdiff ). Furthermore, when atmospheric turbulence was added, the use of deep learning made it possible to reconstruct the target object to the extent that its shape could be identified. Furthermore, we were able to confirm that the differential detection method ( Sdiff ) showed improved reconstruction accuracy compared to images reconstructed from the optical correlation signal of only one photodetector ( S1 , S2 ).
次に本発明の別の実施例を、図7を用いて説明する。図7は光学系として例えば双眼鏡や監視カメラ等を想定し、対象物体4は例えば人間等を想定している。この場合には図1で示した反射望遠鏡タイプでは無いので対物レンズ20に入った光がフィルター20を通して焦点面へと向かう。図1の場合には白色光が焦点面に入っていたが、図7の場合にはフィルターにより特定の波長の光のみが焦点面へと向かう。このフィルターには1つの波長のみではなく、例えば光の三原色、すなわち赤、緑、青の光のみを通すフィルターを、それぞれ時間差を使って洗濯させても良い。その場合にはそのフィルターの交換はCPU13により制御し、図示していないが3つのフィルターの選択機能を使い、CPU13が制御する。この選択期間は1/30秒や、1/60秒程度の高速で切り替えても良い。例えば赤の光で図1、図2で示した対象物体4の再構成画像と同様に緑、青の光で作られた再構成画像の3つの画像から対象物体4のカラー画像を作成することも可能となる。再構成画像の処理速度はCPU能力やインターネット19との通信能力に依存するところもあるが、予め上述で示したノイズ成分の特徴等をRAM15や外部メモリ16に保存する事で高速処理も可能となり、カラー動画に対しても対応可能となる。特にコントラストの向上が必要となる暗視カメラや監視カメラ等の用途にも有効となる。
Next, another embodiment of the present invention will be described with reference to FIG. 7. In FIG. 7, the optical system is assumed to be, for example, binoculars or a surveillance camera, and the target object 4 is assumed to be, for example, a human. In this case, the optical system is not the reflecting telescope type shown in FIG. 1, so light entering the objective lens 20 passes through a filter 20 toward the focal plane. While white light entered the focal plane in FIG. 1, in FIG. 7, the filter directs only light of specific wavelengths toward the focal plane. This filter may not only transmit a single wavelength, but may also transmit only the three primary colors of light, i.e., red, green, and blue, with time delays between each filter. In this case, the filter replacement is controlled by the CPU 13, using a three-filter selection function (not shown). This selection period may be as fast as 1/30 seconds or 1/60 seconds. For example, a color image of the target object 4 can be created from three images, one reconstructed with red light as shown in FIG. 1 and FIG. 2, as well as the other reconstructed with green and blue light. Although the processing speed of the reconstructed image depends in part on the CPU power and the communication capacity with the Internet 19, high-speed processing is possible and color moving images can also be handled by storing the characteristics of the noise components shown above in advance in the RAM 15 or external memory 16. This is particularly effective for applications such as night vision cameras and surveillance cameras where improved contrast is required.
1:小型光学装置、2:望遠鏡、3:S P I、4:対象物体、5:集光レンズ、6:主鏡、7:副鏡、8a:光検出器1、8b:光検出器2、9a:レンズ1、9b:レンズ2、9c:レンズ3、10:D M D、11:光学系12:システム制御・処理機能、13:CPU、14:R O M、15:R A M、16:外部メモリ、17:表示部、18:システムバス、19:インターネット、20:対物レンズ、21:フィルター
1: Small optical device, 2: Telescope, 3: SPI, 4: Target object, 5: Condenser lens, 6: Primary mirror, 7: Secondary mirror, 8a: Photodetector 1, 8b: Photodetector 2, 9a: Lens 1, 9b: Lens 2, 9c: Lens 3, 10: DMD, 11: Optical system, 12: System control and processing function, 13: CPU, 14: ROM, 15: RAM, 16: External memory, 17: Display unit, 18: System bus, 19: Internet, 20: Objective lens, 21: Filter
Claims (7)
A compact optical device having the function of receiving an optical signal from a target object using an optical system consisting of multiple lenses or mirrors, etc., and at least two single-pixel photodetectors, acquiring the light intensity of the target object from the single-pixel photodetectors as an optical correlation signal, and reconstructing an image of the target object based on the obtained optical correlation signal, characterized in that in reconstructing the image, the light intensities of at least two single-pixel photodetectors are used and the image is reconstructed by detecting the difference between them.
A compact optical device that receives an optical signal from a target object using an optical system consisting of multiple lenses or mirrors, etc., and at least two single-pixel photodetectors, acquires the light intensity of the target object from the single-pixel photodetectors as an optical correlation signal, and reconstructs an image of the target object based on the obtained optical correlation signal, characterized in that, in reconstructing the image, noise components of the target object contained in the image are removed using deep learning.
3. The compact optical device according to claim 1, wherein both difference detection and deep learning are performed in image reconstruction.
The compact optical device according to claims 2 and 3, characterized in that the deep learning data used in image reconstruction is acquired via a network.
The compact optical device according to claims 2 and 3, characterized in that deep learning used in image reconstruction is performed using data stored in a memory within the compact optical device.
6. The compact optical device according to any one of claims 1 to 5, wherein a filter is disposed in the optical path, and an image is reconstructed using monochromatic light.
7. The compact optical device according to claim 6, wherein the filters arranged in the optical path are red, green, and blue filters, and the image is colorized using these three monochromatic lights.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2024019374A JP2025123735A (en) | 2024-02-13 | 2024-02-13 | small optical device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2024019374A JP2025123735A (en) | 2024-02-13 | 2024-02-13 | small optical device |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2025123735A true JP2025123735A (en) | 2025-08-25 |
Family
ID=96845574
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2024019374A Pending JP2025123735A (en) | 2024-02-13 | 2024-02-13 | small optical device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2025123735A (en) |
-
2024
- 2024-02-13 JP JP2024019374A patent/JP2025123735A/en active Pending
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US9581496B2 (en) | Snapshot spectral imaging based on digital cameras | |
| CA2613443C (en) | Image correction across multiple spectral regimes | |
| JP5830348B2 (en) | Imaging device | |
| US9019503B2 (en) | MEMS microdisplay optical imaging and sensor systems for underwater and other scattering environments | |
| US9013691B2 (en) | Snapshot spectral imaging based on digital cameras | |
| CN112789495A (en) | Hybrid spectral imager | |
| US10154216B2 (en) | Image capturing apparatus, image capturing method, and storage medium using compressive sensing | |
| US9516242B2 (en) | Method and apparatus for image reconstruction | |
| IL256975A (en) | Spectral imaging method and system | |
| US12393161B2 (en) | Device and method for calibration-free phase shifting procedure for self-interference holography | |
| JP2016008956A (en) | Imaging device and method | |
| US11441889B2 (en) | Apparatus, systems, and methods for detecting light | |
| WO2009108050A9 (en) | Image reconstructor | |
| Liu et al. | Future-proof imaging: computational imaging | |
| Kim et al. | Aperture-encoded snapshot hyperspectral imaging with a lensless camera | |
| JPWO2019216213A1 (en) | Spectral measuring device and spectroscopic measuring method | |
| US20180338049A1 (en) | Image processing apparatus performing image recovery processing, imaging apparatus, image processing method, and storage medium | |
| EP3994529A1 (en) | Calibration-free phase shifting procedure for self-interference holography | |
| Cossairt et al. | Digital refocusing with incoherent holography | |
| JP2025123735A (en) | small optical device | |
| Rueda et al. | Compressive spectral imaging based on colored coded apertures | |
| US10091440B1 (en) | System and method for providing compressive infrared imaging | |
| Du Bosq et al. | An overview of joint activities on computational imaging and compressive sensing systems by NATO SET-232 | |
| JP6611509B2 (en) | Image processing apparatus, imaging apparatus, and image processing program | |
| EP3693786B1 (en) | Holographic mode filter for super-resolution imaging |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240307 |