JP7380146B2 - Information acquisition device - Google Patents

Information acquisition device Download PDF

Info

Publication number
JP7380146B2
JP7380146B2 JP2019217478A JP2019217478A JP7380146B2 JP 7380146 B2 JP7380146 B2 JP 7380146B2 JP 2019217478 A JP2019217478 A JP 2019217478A JP 2019217478 A JP2019217478 A JP 2019217478A JP 7380146 B2 JP7380146 B2 JP 7380146B2
Authority
JP
Japan
Prior art keywords
light
optical system
information acquisition
optical
acquisition device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019217478A
Other languages
Japanese (ja)
Other versions
JP2021087199A (en
Inventor
和弘 藤田
一也 宮垣
優 熊谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2019217478A priority Critical patent/JP7380146B2/en
Publication of JP2021087199A publication Critical patent/JP2021087199A/en
Application granted granted Critical
Publication of JP7380146B2 publication Critical patent/JP7380146B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Stroboscope Apparatuses (AREA)
  • Shutters For Cameras (AREA)
  • Studio Devices (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Description

本発明は、情報取得装置に関する。 The present invention relates to an information acquisition device.

従来、光学的に3D情報を取得する3Dセンシング技術が各方面で利用されている。 Conventionally, 3D sensing technology that optically acquires 3D information has been used in various fields.

例えば、ロボットやドローン、VR(Virtual Reality)などで利用される、ジェスチャー認識や物体認識、障害物検知に関する3Dセンシング技術が開示されている。このような3Dセンシング技術においては、面計測可能な撮像素子などの2次元センサを用いる場合がある。 For example, 3D sensing technology related to gesture recognition, object recognition, and obstacle detection, which is used in robots, drones, VR (Virtual Reality), etc., has been disclosed. In such 3D sensing technology, a two-dimensional sensor such as an image sensor capable of surface measurement may be used.

しかしながら、2次元センサを用いる3Dセンシングの精度は、当該2次元センサの物理的な解像度により制限される。 However, the accuracy of 3D sensing using a two-dimensional sensor is limited by the physical resolution of the two-dimensional sensor.

本発明は、上記に鑑みてなされたものであって、使用する2次元センサの物理的な解像度より大きい解像度で被撮像面に関する情報を取得することを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to obtain information regarding an imaged surface at a resolution greater than the physical resolution of a two-dimensional sensor used.

上述した課題を解決し、目的を達成するために、本発明は、光の遅延情報を取得するセンサであって、撮像面へ入射する光の強度分布に応じた受光信号を出力する光センサと、被撮像面からの光を前記被撮像面の共役面に伝達する第1の光学系と、前記第1の光学系により伝達可能な前記被撮像面の領域のうちの複数の領域からの光を前記撮像面のうちの同一の領域に結像する第2の光学系と、時分割された前記受光信号に基づいて、前記被撮像面に関する情報を取得する処理回路とを備える情報取得装置を特徴とする。 In order to solve the above-mentioned problems and achieve the objects, the present invention provides a sensor that acquires light delay information and an optical sensor that outputs a light reception signal according to the intensity distribution of light incident on an imaging surface. , a first optical system that transmits light from the imaged surface to a conjugate surface of the imaged surface, and light from a plurality of regions of the imaged surface that can be transmitted by the first optical system. an information acquisition device comprising: a second optical system for forming an image on the same area of the imaging surface; and a processing circuit for acquiring information regarding the imaging surface based on the time-divided light reception signal. Features.

本発明によれば、使用する2次元センサの物理的な解像度より大きい解像度で被撮像面に関する情報を取得することができるという効果を奏する。 According to the present invention, it is possible to obtain information regarding the imaged surface at a resolution higher than the physical resolution of the two-dimensional sensor used.

図1は、実施形態に係る情報取得装置の構成の一例を示す図である。FIG. 1 is a diagram illustrating an example of the configuration of an information acquisition device according to an embodiment. 図2は、図1の撮像系の構成の一例を示す断面図である。FIG. 2 is a cross-sectional view showing an example of the configuration of the imaging system shown in FIG. 図3は、図1の情報取得装置における、被撮像面のうちの第1の領域に関する像形成について説明するための図である。FIG. 3 is a diagram for explaining image formation regarding the first region of the imaged surface in the information acquisition device of FIG. 1. 図4は、図1の情報取得装置における、被撮像面のうちの第2の領域に関する像形成について説明するための図である。FIG. 4 is a diagram for explaining image formation regarding the second region of the imaged surface in the information acquisition device of FIG. 1. 図5は、図1の情報取得装置における、被撮像面のうちの第3の領域に関する像形成について説明するための図である。FIG. 5 is a diagram for explaining image formation regarding the third region of the imaged surface in the information acquisition device of FIG. 1. 図6は、図1の情報取得装置の機能構成の一例を示す図である。FIG. 6 is a diagram illustrating an example of the functional configuration of the information acquisition device of FIG. 1. 図7は、図1の情報取得装置において実行される、情報取得処理の一例を示すタイミングチャートである。FIG. 7 is a timing chart showing an example of an information acquisition process executed in the information acquisition device of FIG. 1. 図8は、図1の第2の光学系が中間像を3つに分割する場合の被撮像面に関する情報の取得について説明するための図である。FIG. 8 is a diagram for explaining acquisition of information regarding the imaged surface when the second optical system in FIG. 1 divides the intermediate image into three. 図9は、図1の第2の光学系が中間像を9つに分割する場合の被撮像面に関する情報の取得について説明するための図である。FIG. 9 is a diagram for explaining acquisition of information regarding the imaged surface when the second optical system in FIG. 1 divides the intermediate image into nine parts. 図10は、図7の情報取得処理における照明制御の別の一例について説明するための図である。FIG. 10 is a diagram for explaining another example of lighting control in the information acquisition process of FIG. 7. 図11は、図1の情報取得装置により実行される、情報取得処理の別の一例を示すタイミングチャートである。FIG. 11 is a timing chart showing another example of the information acquisition process executed by the information acquisition device of FIG. 1. 図12は、図1の第2の光学系の構成の別の一例を示す図である。FIG. 12 is a diagram showing another example of the configuration of the second optical system in FIG. 1. 図13は、図12の第2の光学系が中間像を9つに分割する場合の被撮像面に関する情報の取得について説明するための図である。FIG. 13 is a diagram for explaining acquisition of information regarding the imaged surface when the second optical system in FIG. 12 divides the intermediate image into nine parts. 図14は、図1の撮像系及び照明系の構成の別の一例を示す断面図である。FIG. 14 is a cross-sectional view showing another example of the configuration of the imaging system and illumination system in FIG. 1. 図15は、図14の撮像系及び照明系の構成の別の一例を示す断面図である。FIG. 15 is a cross-sectional view showing another example of the configuration of the imaging system and illumination system shown in FIG. 14.

近年、3D情報を取得するセンシング技術が各方面で利用されている。例えば、近距離においては、スマートフォンなどの認証時の顔検知において3D情報を利用して個人を特定したり、ジェスチャー操作によりコマンド入力する際に3D情報を利用して手の動きなどを取得したりする技術がある。また、例えば、中長距離においては、自動車における自動ブレーキシステムにおける前方車両や人物などの検知に利用されたり、自動運転のための前方の障害物検知などの3Dセンシングに利用されたりしている。また、AGV(Automatic Guided Vehicle)などと呼ばれている、自動搬送車の周辺障害物の検知に利用されたり、ロボットの目としての3次元センサに利用されたりしている。これらのことから、センシング精度を高めたいという要求がある。 In recent years, sensing technology for acquiring 3D information has been used in various fields. For example, at short distances, 3D information can be used to identify an individual when facial recognition is performed using a smartphone, etc., or 3D information can be used to capture hand movements when inputting commands using gestures. There is a technology to do that. For example, in medium and long distances, it is used for detecting vehicles and people ahead in automatic braking systems of automobiles, and for 3D sensing such as detecting obstacles ahead for automatic driving. They are also used to detect obstacles around automatic guided vehicles (AGVs), and are used as three-dimensional sensors as the eyes of robots. For these reasons, there is a demand to improve sensing accuracy.

従来、3D情報を取得するための手段として、ステレオカメラを利用する手段がある。ステレオカメラでは、左右のカメラで得られる視差情報を奥行き情報に変換して3D情報を取得する。また、TOF(Time of Flight)カメラという3D距離センサもある。TOFカメラ(TOFセンサ)は、赤外光などを対象物に投光し、その対象物からの反射光がセンサに到達する時間差を算出して距離換算をしている。どちらの方式にも一長一短があるが、ステレオカメラでは2つのカメラを用い、かつ、キャリブレーションが必要であるなど利用が煩雑である反面、TOFセンサでは単純なカメラ構成であるため、TOFカメラの利用機会が多くなっている。このように、3Dセンシング用途として、ロボットやドローン、VRなどの市場で、ジェスチャー認識や物体認識、障害物検知のために利用されている。 Conventionally, as a means for acquiring 3D information, there is a means of using a stereo camera. A stereo camera acquires 3D information by converting parallax information obtained by left and right cameras into depth information. There is also a 3D distance sensor called a TOF (Time of Flight) camera. A TOF camera (TOF sensor) projects infrared light or the like onto a target object, calculates the time difference between reflected light from the target object and reaches the sensor, and converts it into distance. Both methods have advantages and disadvantages, but stereo cameras use two cameras and require calibration, making them complicated to use, while TOF sensors have a simple camera configuration, so it is better to use a TOF camera. There are more opportunities. In this way, 3D sensing applications are used for gesture recognition, object recognition, and obstacle detection in markets such as robots, drones, and VR.

しかし、今までの3Dセンシング、特に2次元TOFセンサを利用した3Dセンシングでは、センサ解像度が25万画素~VGA(約30万画素)程度であることから、より広角で広い範囲の3Dセンシングを行うためには、分解能が不足していた。したがって、画素間の情報をより詳細にセンシングできなかった。そこで、以下に説明する情報取得装置1では、使用する2次元センサの物理的な解像度より大きい解像度で被撮像面に関する情報を取得する。 However, conventional 3D sensing, especially 3D sensing using two-dimensional TOF sensors, has a sensor resolution of about 250,000 pixels to VGA (approximately 300,000 pixels), so 3D sensing over a wider angle and wider range is required. Therefore, the resolution was insufficient. Therefore, information between pixels could not be sensed in more detail. Therefore, the information acquisition device 1 described below acquires information regarding the imaged surface at a resolution greater than the physical resolution of the two-dimensional sensor used.

以下に添付図面を参照して、情報取得装置1の実施の形態を詳細に説明する。 Embodiments of the information acquisition device 1 will be described in detail below with reference to the accompanying drawings.

(第1の実施形態)
図1は、実施形態に係る情報取得装置1の構成の一例を示す図である。図1に示すように、情報取得装置1は、撮像系2、照明系3、処理回路4及びメモリ5を有する。
(First embodiment)
FIG. 1 is a diagram illustrating an example of the configuration of an information acquisition device 1 according to an embodiment. As shown in FIG. 1, the information acquisition device 1 includes an imaging system 2, an illumination system 3, a processing circuit 4, and a memory 5.

図2は、図1の撮像系2の構成の一例を示す断面図である。図1及び図2に示すように、撮像系2は、第1の光学系21、第2の光学系22及び光センサ23を有する。 FIG. 2 is a sectional view showing an example of the configuration of the imaging system 2 in FIG. 1. As shown in FIGS. 1 and 2, the imaging system 2 includes a first optical system 21, a second optical system 22, and an optical sensor 23.

第1の光学系21は、被撮像面上の物体情報を中間像として形成する。つまり、第1の光学系21は、被撮像面からの光を中間像面に伝達する。第1の光学系21により形成される中間像は、被撮像面の領域のうちの第1の光学系21が伝達可能な領域Rに関する。換言すれば、第1の光学系21により形成される中間像は、被撮像面の領域のうちの第1の光学系21の画角内の領域Rである。ここで、中間像面は、第1の光学系21を介した被撮像面の共役面であり、撮像系2の被撮像面から結像面までの光路上であるとする。なお、第1の光学系21は、被撮像面上の物体あるいは空間情報を共役な位置に光強度情報として伝達するとも表現できる。 The first optical system 21 forms object information on the imaged surface as an intermediate image. That is, the first optical system 21 transmits light from the imaged surface to the intermediate image surface. The intermediate image formed by the first optical system 21 relates to a region R of the imaged surface that can be transmitted by the first optical system 21 . In other words, the intermediate image formed by the first optical system 21 is a region R within the field of view of the first optical system 21 of the region of the imaged surface. Here, it is assumed that the intermediate image plane is a conjugate plane of the imaged surface via the first optical system 21, and is on the optical path from the imaged surface to the imaging surface of the imaging system 2. Note that the first optical system 21 can also be expressed as transmitting an object or spatial information on the imaged surface to a conjugate position as light intensity information.

なお、図2には、説明の簡単のために、単独のレンズ(単レンズ)で構成される第1の光学系21を示しているが、これに限らない。第1の光学系21に含まれる少なくとも1つの光学素子がパワーを有することにより所望の結像性能を有していればよい。ここで、パワーとは、焦点距離の逆数を言う。例えば、第1の光学系21は、正又は負のパワーを有するレンズ系や反射系などによって構成され得る。もちろん、第1の光学系21としては、少なくとも1つの単レンズを含む複合レンズも適宜利用可能である。 Although FIG. 2 shows the first optical system 21 composed of a single lens (single lens) for ease of explanation, the present invention is not limited to this. It is sufficient that at least one optical element included in the first optical system 21 has a power to provide desired imaging performance. Here, power refers to the reciprocal of focal length. For example, the first optical system 21 may be configured with a lens system, a reflection system, or the like having positive or negative power. Of course, as the first optical system 21, a compound lens including at least one single lens can also be used as appropriate.

第2の光学系22は、撮像系2の第1の光学系21から結像面までの光路上において、第1の光学系21の像側に配置される。第2の光学系22は、第1の光学系21により伝達された光強度情報を分割する。つまり、第2の光学系22は、第1の光学系21によって形成された中間像を複数の中間像に分割する。以下、分割された中間像の各々を分割中間像と言う。なお、中間像面及び被撮像面は共役の関係にあるため、複数の分割中間像の各々は、対応する被撮像面の各領域からの光により形成されているとも表現できる。 The second optical system 22 is arranged on the image side of the first optical system 21 on the optical path from the first optical system 21 of the imaging system 2 to the imaging surface. The second optical system 22 divides the light intensity information transmitted by the first optical system 21. That is, the second optical system 22 divides the intermediate image formed by the first optical system 21 into a plurality of intermediate images. Hereinafter, each of the divided intermediate images will be referred to as a divided intermediate image. Note that since the intermediate image plane and the imaged surface are in a conjugate relationship, each of the plurality of divided intermediate images can also be expressed as being formed by light from each region of the corresponding imaged surface.

第2の光学系22は、複数の分割中間像の情報を結像面に伝達する。具体的には、第2の光学系22は、複数の分割中間像の情報を結像面に重畳して像を形成する。ここで、結像面は、第2の光学系22を介した中間像面の共役面であるとする。つまり、第2の光学系22は、複数の分割中間像をそれぞれ結像面上の同一の領域に結像する。 The second optical system 22 transmits information on the plurality of divided intermediate images to the imaging plane. Specifically, the second optical system 22 forms an image by superimposing information of a plurality of divided intermediate images on an imaging plane. Here, it is assumed that the image plane is a conjugate plane of the intermediate image plane via the second optical system 22. In other words, the second optical system 22 forms a plurality of divided intermediate images on the same area on the imaging plane.

第2の光学系22としては、図2に示すように、第1のレンズアレイ221、第2のレンズアレイ222及び結像レンズ223を含む構成が利用可能である。第1のレンズアレイ221及び第2のレンズアレイ222は、中間像面に形成された中間像を分割する。このとき、第1のレンズアレイ221は、第1の光学系21によって収束してくる光を、第2のレンズアレイ222へ効率よく導くためのフィールドレンズとして機能する。第1のレンズアレイ221及び第2のレンズアレイ222は、中間像の分割数に応じた数の集光素子を有する。また、各集光素子の形状は、被撮像面の各領域の形状に対応する。結像レンズ223は、複数の分割中間像を結像面上に重ねて像形成する。結像レンズ223は、第1の光学系と同様に、正又は負のパワーを有するレンズ系や反射系などによって構成され得る。 As the second optical system 22, as shown in FIG. 2, a configuration including a first lens array 221, a second lens array 222, and an imaging lens 223 can be used. The first lens array 221 and the second lens array 222 divide the intermediate image formed on the intermediate image plane. At this time, the first lens array 221 functions as a field lens for efficiently guiding the light converged by the first optical system 21 to the second lens array 222. The first lens array 221 and the second lens array 222 have a number of condensing elements corresponding to the number of divisions of the intermediate image. Furthermore, the shape of each condensing element corresponds to the shape of each region of the imaged surface. The imaging lens 223 superimposes a plurality of divided intermediate images on an imaging plane to form an image. Like the first optical system, the imaging lens 223 may be configured by a lens system or a reflection system having positive or negative power.

図2に示す例では、第1のレンズアレイ221及び第2のレンズアレイ222は、それぞれ3つの集光素子を有し、中間像面に形成された中間像、すなわち被撮像面の領域Rに関する中間像を、第1の分割中間像A´、第2の分割中間像B´及び第3の分割中間像C´の3つの中間像に分割する。ここで、第1の分割中間像A´は、被撮像面の第1の領域Aに対応する中間像である。また、第2の分割中間像B´は、被撮像面の第2の領域Bに対応する中間像である。第3の分割中間像C´は、被撮像面の第3の領域Cに対応する中間像である。結像レンズ223は、3つの分割中間像A´,B´,C´を結像面上に重ねて像形成している。 In the example shown in FIG. 2, the first lens array 221 and the second lens array 222 each have three condensing elements, and are related to the intermediate image formed on the intermediate image plane, that is, the region R of the imaged surface. The intermediate image is divided into three intermediate images: a first divided intermediate image A', a second divided intermediate image B', and a third divided intermediate image C'. Here, the first divided intermediate image A' is an intermediate image corresponding to the first region A of the imaged surface. Further, the second divided intermediate image B' is an intermediate image corresponding to the second region B of the imaged surface. The third divided intermediate image C' is an intermediate image corresponding to the third region C of the imaged surface. The imaging lens 223 forms three divided intermediate images A', B', and C' superimposed on the imaging plane.

第1のレンズアレイ221は、被撮像面上の各領域に対応した正のパワーを有する集光素子を、被撮像面上の各領域の数だけ配列した光学素子であればよく、レンズアレイに限らない。第1のレンズアレイ221としては、例えば、フレネルレンズアレイや回折レンズアレイも適宜利用可能である。なお、照明光として単一波長の赤外レーザ光を使用する場合には、回折レンズアレイが利用されるとよい。 The first lens array 221 may be an optical element in which a number of condensing elements each having a positive power corresponding to each region on the imaged surface are arranged in the same number as each region on the imaged surface. Not exclusively. As the first lens array 221, for example, a Fresnel lens array or a diffraction lens array can be used as appropriate. Note that when using a single wavelength infrared laser beam as illumination light, a diffraction lens array may be used.

なお、第1のレンズアレイ221は、設けられていなくてもよい。この場合、例えば第1の光学系21を複数の光学素子によって像側にテレセントリック性を持たせた構成とすることで、効率よく結像面上に結像することも可能である。 Note that the first lens array 221 may not be provided. In this case, for example, by configuring the first optical system 21 to have telecentricity on the image side using a plurality of optical elements, it is possible to efficiently form an image on the imaging plane.

なお、中間像面に領域分割に応じて配列された第1のレンズアレイ221では、それぞれの領域の境界にも情報が存在する。したがって、その領域の境界は可能な限り0に近づけることが好ましい。そのため、第1のレンズアレイ221としては、例えば矩形の集光素子を縦横に配列して境界部を低減する構成が好適である。また、第1のレンズアレイ221としては、例えば6角形の集光素子を配列したハニカム状の構成であってもよい。複数の集光素子を矩形状又はハニカム状に連続して配列することにより、各集光素子間でのデータの欠落を低減できる。第2のレンズアレイ222の構成は、第1のレンズアレイ221の構成に応じて適宜決定されればよい。 Note that in the first lens array 221 arranged on the intermediate image plane according to the area division, information also exists at the boundaries of each area. Therefore, it is preferable that the boundary of the area be as close to 0 as possible. Therefore, it is preferable for the first lens array 221 to have a configuration in which, for example, rectangular condensing elements are arranged vertically and horizontally to reduce the boundaries. Further, the first lens array 221 may have a honeycomb-like configuration in which hexagonal condensing elements are arranged, for example. By continuously arranging a plurality of light condensing elements in a rectangular or honeycomb shape, data loss between each light condensing element can be reduced. The configuration of the second lens array 222 may be determined as appropriate depending on the configuration of the first lens array 221.

このように、第2の光学系22は、第1の光学系21により伝達可能な被撮像面の領域Rのうちの複数の領域からの光を結像面のうちの同一の領域に結像するように構成されている。一例として、第2の光学系22は、複数の分割中間像にそれぞれ対応した集光素子が配列された第1のレンズアレイ221及び/又は第2のレンズアレイ222(少なくとも1つの集光素子アレイ)と、集光素子アレイを通過した複数の分割中間像に対応する光をそれぞれ結像面のうちの同一の領域に結像する少なくとも1つの結像レンズ223(集光素子)を有する。また、集光素子アレイにおいて、各集光素子は、矩形状又はハニカム状に配列される。 In this way, the second optical system 22 images the light from a plurality of regions of the region R of the imaged surface that can be transmitted by the first optical system 21 onto the same region of the imaging surface. is configured to do so. As an example, the second optical system 22 includes a first lens array 221 and/or a second lens array 222 (at least one condensing element array) in which condensing elements respectively corresponding to a plurality of divided intermediate images are arranged. ), and at least one imaging lens 223 (condensing element) that focuses the light corresponding to the plurality of divided intermediate images that have passed through the condensing element array onto the same area of the imaging plane. Further, in the light condensing element array, each light condensing element is arranged in a rectangular shape or a honeycomb shape.

光センサ23は、撮像面231へ入射する光の強度分布に応じた受光信号を出力する。光センサ23としては、例えばCCD(Charge Coupled Devices)やCMOS(Complementary Metal Oxide Semiconductor)センサなどの各種の2次元センサが適宜利用可能である。光センサ23は、第2の光学系22の結像面上に配置される。撮像面231には、第2の光学系22により、分割数に応じて重畳された像が形成される。つまり、第2の光学系22は、第1の光学系21により伝達可能な被撮像面の領域Rのうちの複数の領域からの光を撮像面231のうちの同一の領域に結像する。また、光センサ23は、撮像面231に像形成された複数の分割中間像の各々に関して、光の強度情報を取得する。 The optical sensor 23 outputs a light reception signal according to the intensity distribution of light incident on the imaging surface 231. As the optical sensor 23, various two-dimensional sensors such as a CCD (Charge Coupled Devices) or a CMOS (Complementary Metal Oxide Semiconductor) sensor can be used as appropriate. The optical sensor 23 is arranged on the imaging plane of the second optical system 22. The second optical system 22 forms superimposed images on the imaging surface 231 according to the number of divisions. That is, the second optical system 22 images the light from a plurality of regions of the region R of the imaging surface that can be transmitted by the first optical system 21 onto the same region of the imaging surface 231. Further, the optical sensor 23 acquires light intensity information regarding each of the plurality of divided intermediate images formed on the imaging surface 231.

照明系3は、複数の分割中間像(A´,B´,C´)にそれぞれ対応する被撮像面の領域(A,B,C)ごとに被撮像面を照明する。照明系3は、照明光学系31及び光源32を有する。照明光学系31は、光源32からの光を被撮像面の各領域(A,B,C)へ効率よく導くために設けられる光学系である。照明光学系31は、第1の光学系などと同様に、正又は負のパワーを有するレンズ系や反射系などによって構成され得る。光源32としては、撮像系2の波長依存性などの各種の特性に応じて、発光ダイオード(LED)や水銀灯、蛍光管、白熱電球などの各種の光源が適宜利用可能である。 The illumination system 3 illuminates the imaged surface for each region (A, B, C) of the imaged surface corresponding to a plurality of divided intermediate images (A', B', C'). The illumination system 3 includes an illumination optical system 31 and a light source 32. The illumination optical system 31 is an optical system provided to efficiently guide light from the light source 32 to each region (A, B, C) of the imaged surface. Like the first optical system, the illumination optical system 31 may be configured with a lens system, a reflection system, or the like having positive or negative power. As the light source 32, various light sources such as a light emitting diode (LED), a mercury lamp, a fluorescent tube, an incandescent lamp, etc. can be used as appropriate depending on various characteristics such as wavelength dependence of the imaging system 2.

図3~5は、図1の情報取得装置1における、被撮像面上の各領域に関する像形成について説明するための図である。図3は、第1の領域Aに関する。図4は、第2の領域Bに関する。図5は、第3の領域Cに関する。また、図3~5には、それぞれ、被撮像面上の各領域を照射する光と、被撮像面上の各領域により反射(散乱)された光との光線経路(上光線及び下光線)が示されている。 3 to 5 are diagrams for explaining image formation regarding each area on the imaged surface in the information acquisition device 1 of FIG. 1. FIG. 3 relates to the first area A. FIG. 4 relates to the second area B. FIG. 5 relates to the third area C. In addition, FIGS. 3 to 5 show the ray paths (upper rays and lower rays) of the light irradiating each region on the imaged surface and the light reflected (scattered) by each region on the imaged surface, respectively. It is shown.

図3~5に示すように、照明光学系31は、第1の照明光学系CL1、第2の照明光学系CL2及び第3の照明光学系CL3を有する。光源32は、第1の光源LS1、第2の光源LS2及び第3の光源LS3を有する。図3に示すように、第1の光源LS1からの光(照明光)は、第1の照明光学系CL1により被撮像面上の第1の領域Aに照射される。照明された第1の領域Aからの光は、第1の光学系21により第1の分割中間像A´を形成する。第1の分割中間像A´は、第2の光学系22により第1の分割像A´´として撮像面231上に形成される。図4に示すように、第2の光源LS2からの光(照明光)は、第2の照明光学系CL2により被撮像面上の第2の領域Bに照射される。照明された第2の領域Bからの光は、第1の光学系21により第2の分割中間像B´を形成する。第2の分割中間像B´は、第2の光学系22により第2の分割像B´´として撮像面231上に形成される。図5に示すように、第3の光源LS3からの光(照明光)は、第3の照明光学系CL3により被撮像面上の第3の領域Cに照射される。照明された第3の領域Cからの光は、第1の光学系21により第3の分割中間像C´を形成する。第3の分割中間像C´は、第2の光学系22により第3の分割像C´´として撮像面231上に形成される。 As shown in FIGS. 3 to 5, the illumination optical system 31 includes a first illumination optical system CL1, a second illumination optical system CL2, and a third illumination optical system CL3. The light source 32 includes a first light source LS1, a second light source LS2, and a third light source LS3. As shown in FIG. 3, light (illumination light) from the first light source LS1 is irradiated onto the first region A on the imaged surface by the first illumination optical system CL1. The light from the illuminated first area A forms a first divided intermediate image A' by the first optical system 21. The first divided intermediate image A' is formed by the second optical system 22 as a first divided image A'' on the imaging surface 231. As shown in FIG. 4, the light (illumination light) from the second light source LS2 is irradiated onto the second region B on the imaged surface by the second illumination optical system CL2. The light from the illuminated second region B forms a second divided intermediate image B' by the first optical system 21. The second divided intermediate image B' is formed by the second optical system 22 as a second divided image B'' on the imaging surface 231. As shown in FIG. 5, the light (illumination light) from the third light source LS3 is irradiated onto the third region C on the imaged surface by the third illumination optical system CL3. The light from the illuminated third region C forms a third divided intermediate image C' by the first optical system 21. The third divided intermediate image C' is formed by the second optical system 22 as a third divided image C'' on the imaging surface 231.

なお、照明系3としては、複数の照明光学系CL1,CL2,CL3のうちの2つ以上の照明光学系により、少なくとも1つの光源32が共有される構成であってもよい。 Note that the illumination system 3 may have a configuration in which at least one light source 32 is shared by two or more of the plurality of illumination optical systems CL1, CL2, and CL3.

処理回路4は、メモリ5から読み出したプログラムを実行することにより、情報取得装置1の全体の動作を制御する。処理回路4は、光センサ23からの受光信号に基づいて、被撮像面に関する情報を取得する。具体的には、処理回路4は、時分割された光センサ23からの受光信号に基づいて、被撮像面に関する情報を取得する。処理回路4は、バスや各種のネットワーク等を介して、撮像系2の光センサ23、照明系の光源32及びメモリ5に対して通信可能に接続される。処理回路4としては、例えばCPU(Central Processing Unit)が利用されるが、GPU(Graphics Processing Unit)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)などの種々のプロセッサが適宜利用可能である。 The processing circuit 4 controls the overall operation of the information acquisition device 1 by executing a program read from the memory 5. The processing circuit 4 acquires information regarding the imaged surface based on the light reception signal from the optical sensor 23. Specifically, the processing circuit 4 acquires information regarding the imaged surface based on time-divided light reception signals from the optical sensor 23. The processing circuit 4 is communicably connected to the optical sensor 23 of the imaging system 2, the light source 32 of the illumination system, and the memory 5 via a bus or various networks. As the processing circuit 4, for example, a CPU (Central Processing Unit) is used, but various processors such as a GPU (Graphics Processing Unit), an ASIC (Application Specific Integrated Circuit), or an FPGA (Field-Programmable Gate Array) can be used as appropriate. It is possible.

メモリ5としては、ROM(Read Only Memory)やRAM(Random Access Memory)等が適宜利用可能である。例えばROMには、処理回路4によって使用されるプログラムやデータ等が格納される。また例えばRAMは、記録データのロードや環境データの格納に用いられる。メモリ5としては、HDD(Hard Disk Drive)やSSD(Solid State Drive)、CD-ROMドライブなどの記憶装置も適宜利用可能である。 As the memory 5, ROM (Read Only Memory), RAM (Random Access Memory), etc. can be used as appropriate. For example, the ROM stores programs, data, etc. used by the processing circuit 4. Further, for example, the RAM is used for loading recording data and storing environmental data. As the memory 5, storage devices such as an HDD (Hard Disk Drive), an SSD (Solid State Drive), and a CD-ROM drive can also be used as appropriate.

なお、処理回路4及びメモリ5としては、CPU、ROM、RAM等を有する汎用のコンピュータが利用されてもよい。また、処理回路4及びメモリ5は、それぞれ、光センサ23や光源32と一体に構成されていてもよい。 Note that as the processing circuit 4 and the memory 5, a general-purpose computer having a CPU, ROM, RAM, etc. may be used. Further, the processing circuit 4 and the memory 5 may be configured integrally with the optical sensor 23 and the light source 32, respectively.

図6は、図1の情報取得装置1の機能構成の一例を示す図である。処理回路4は、メモリ5に記憶されている情報取得プログラムを実行することにより、照明制御部41、撮像制御部42及び情報取得部43としての機能を実現する。 FIG. 6 is a diagram showing an example of the functional configuration of the information acquisition device 1 of FIG. 1. As shown in FIG. The processing circuit 4 realizes the functions of the illumination control section 41, the imaging control section 42, and the information acquisition section 43 by executing the information acquisition program stored in the memory 5.

照明制御部41は、各光源LS1,LS2,LS3を順次発光させ、被撮像面上の各領域A,B,Cを順次照明する。なお、照明制御部41は、照明系3の構成に応じて、各照明光学系CL1,CL2,CL3を順次駆動させることにより、被撮像面上の各領域A,B,Cを順次照明してもよい。 The illumination control unit 41 sequentially causes the light sources LS1, LS2, and LS3 to emit light, and sequentially illuminates the areas A, B, and C on the imaged surface. Note that the illumination control unit 41 sequentially illuminates each region A, B, and C on the imaged surface by sequentially driving each illumination optical system CL1, CL2, and CL3 according to the configuration of the illumination system 3. Good too.

撮像制御部42は、領域が照明されている間、すなわち照明制御部41が各領域を照明するタイミングに同期するタイミングで、各領域からの光に応じた受光信号を光センサ23に出力させる。 The imaging control unit 42 causes the optical sensor 23 to output a light reception signal corresponding to the light from each area while the area is illuminated, that is, at a timing synchronized with the timing at which the illumination control unit 41 illuminates each area.

情報取得部43は、各領域に関する情報として、各領域が照明されている間に受光した光に関する光センサ23からの受光信号を取得する。換言すれば、情報取得部43は、各領域に関する情報として、光センサ23からの受光信号の時系列を、各領域の照明タイミングに応じて時分割して取得する。また、情報取得部43は、各領域に関する情報に基づいて、被撮像面に関する情報を取得する。被撮像面に関する情報(光強度情報)は、例えば被撮像面のうちの第1の光学系21の画角内の領域に関する画像などの画像情報や、被撮像面上における被検出物の有無、当該被検出物上の任意の物点までの距離、当該被検出物の形状などのTOF(Time-of-Flight)センサの光遅延情報を含む。 The information acquisition unit 43 acquires, as information regarding each area, a light reception signal from the optical sensor 23 regarding light received while each area is illuminated. In other words, the information acquisition unit 43 acquires the time series of the light reception signal from the optical sensor 23 in a time-divided manner according to the illumination timing of each area, as information regarding each area. Furthermore, the information acquisition unit 43 acquires information regarding the imaged surface based on information regarding each region. The information regarding the imaged surface (light intensity information) includes, for example, image information such as an image regarding a region within the field of view of the first optical system 21 on the imaged surface, the presence or absence of a detected object on the imaged surface, It includes optical delay information of a TOF (Time-of-Flight) sensor, such as the distance to an arbitrary object point on the detected object and the shape of the detected object.

以下、図面を参照して、実施形態に係る情報取得装置1の作用について説明する。 Hereinafter, the operation of the information acquisition device 1 according to the embodiment will be described with reference to the drawings.

図7は、図1の情報取得装置1において実行される、情報取得処理の一例を示すタイミングチャートである。図7に示す例では、任意のフレームnと、フレームnに続くフレームn+1が示されている。 FIG. 7 is a timing chart showing an example of an information acquisition process executed in the information acquisition device 1 of FIG. 1. In the example shown in FIG. 7, an arbitrary frame n and a frame n+1 following frame n are shown.

照明制御部41は、各フレームの時間内において、各光源LS1,LS2,LS3を順次発光させ、被撮像面上の各領域A,B,Cを順次照明する。撮像制御部42は、各領域が照明されている間、すなわち照明制御部41が各領域を照明するタイミングに同期するタイミングで、各領域からの光に応じた受光信号を光センサ23に出力させる。また、情報取得部43は、各領域に関する情報として、各領域が照明されている間に受光した光に関する光センサ23からの受光信号を取得する。 The illumination control unit 41 sequentially causes the light sources LS1, LS2, and LS3 to emit light within the time of each frame, and sequentially illuminates the regions A, B, and C on the imaged surface. The imaging control unit 42 causes the optical sensor 23 to output a light reception signal corresponding to the light from each area while each area is illuminated, that is, at a timing synchronized with the timing at which the illumination control unit 41 illuminates each area. . The information acquisition unit 43 also acquires a light reception signal from the optical sensor 23 regarding light received while each area is illuminated, as information regarding each area.

図7に示す例では、フレームnのタイミングt0~t1と、フレームn+1のタイミングt3~t4とにおいて、被撮像面上の第1の領域Aが照明されるとともに、第1の領域Aからの光に応じた受光信号が第1の領域Aに関する情報として取得される。フレームnのタイミングt1~t2と、フレームn+1のタイミングt4~t5とにおいて、被撮像面上の第2の領域Bが照明されるとともに、第2の領域Bからの光に応じた受光信号が第2の領域Bに関する情報として取得される。フレームnのタイミングt2~t3と、フレームn+1のタイミングt5~t6とにおいて、被撮像面上の第3の領域Cが照明されるとともに、第3の領域Cからの光に応じた受光信号が第3の領域Cに関する情報として取得される。なお、各光源LS1,LS2,LS3の発光順序は任意に設定可能であり、設定された各光源の発光順序に応じて、受光信号の時系列が順次取得される。 In the example shown in FIG. 7, at timing t0 to t1 of frame n and timing t3 to t4 of frame n+1, the first area A on the imaged surface is illuminated, and the light from the first area A is illuminated. A light reception signal corresponding to the first area A is acquired as information regarding the first area A. At timing t1 to t2 of frame n and timing t4 to t5 of frame n+1, the second region B on the imaged surface is illuminated, and a light reception signal corresponding to the light from the second region B is transmitted. It is acquired as information regarding area B of No. 2. At timing t2 to t3 of frame n and timing t5 to t6 of frame n+1, the third region C on the imaged surface is illuminated, and a light reception signal corresponding to the light from the third region C is illuminated. It is acquired as information regarding area C of No. 3. Note that the light emission order of each of the light sources LS1, LS2, and LS3 can be set arbitrarily, and the time series of the light reception signals are sequentially acquired according to the set light emission order of each light source.

なお、受光信号を時分割して取得する処理は、各領域が照明されている間に順次実施されてもよいし、複数の領域に関する受光信号の時系列が取得された後に実施されてもよい。この場合、各領域の照明タイミングが受光信号時系列とともに記録されればよい。 Note that the process of time-divisionally acquiring the light reception signals may be performed sequentially while each area is illuminated, or may be performed after the time series of the light reception signals regarding multiple areas is acquired. . In this case, the illumination timing of each area may be recorded together with the light reception signal time series.

図8は、図1の第2の光学系22が中間像を3つに分割する場合の被撮像面に関する情報の取得について説明するための図である。一例として、情報取得部43は、各領域A,B,Cに関する画像データ(受光信号)をつなぎ合わせることにより、被撮像面に関する情報を取得する。 FIG. 8 is a diagram for explaining acquisition of information regarding the imaged surface when the second optical system 22 in FIG. 1 divides the intermediate image into three. As an example, the information acquisition unit 43 acquires information regarding the imaged surface by connecting image data (light reception signals) regarding each area A, B, and C.

このように、本実施形態に係る情報取得装置1は、分割した領域に照明光を順次照射するため、確実にその領域の情報を得ることができる。また、情報取得装置1では、各領域を照明するタイミングと、光センサ23に到達した光強度情報を取得するタイミングとを同期させる。換言すれば、情報取得装置1では、照明系3に各領域を照明させる照明タイミングと同期するタイミングで、光センサ23からの各フレームの受光信号を領域の分割数に応じた数に時分割して取得する。ここで、本実施形態に係る撮像系2では、各領域に関する分割像A´´,B´´,C´´は、撮像面231上に重畳して形成される。このため、時間をシフトすることで、光センサ23の受光信号を互いに違った情報、すなわち各領域A,B,Cに関する情報として分離して取得することができる。ここで、各領域A,B,Cに関する画像データ(受光信号)は、それぞれ、光センサ23の物理的な解像度(画素数)に応じた解像度を有する。つまり、複数に分割された中間像の各々である小領域に関して、光センサ23の有効領域全体で取得することができるため、高解像化が容易に達成できる。したがって、本実施形態に係る情報取得装置1によれば、光センサ23の解像度より大きい解像度で被撮像面に関する情報を取得することができる。 In this manner, the information acquisition device 1 according to the present embodiment sequentially irradiates the divided regions with illumination light, and therefore can reliably obtain information on the regions. Furthermore, in the information acquisition device 1, the timing of illuminating each area and the timing of acquiring the light intensity information that has reached the optical sensor 23 are synchronized. In other words, the information acquisition device 1 time-divides the light reception signal of each frame from the optical sensor 23 into a number corresponding to the number of divisions of the region at a timing synchronized with the illumination timing at which the illumination system 3 illuminates each region. and obtain it. Here, in the imaging system 2 according to the present embodiment, the divided images A'', B'', and C'' regarding each area are formed on the imaging surface 231 in a superimposed manner. Therefore, by shifting the time, the light reception signals of the optical sensor 23 can be separated and acquired as different information, that is, information regarding each area A, B, and C. Here, the image data (light reception signals) regarding each area A, B, and C have a resolution corresponding to the physical resolution (number of pixels) of the optical sensor 23, respectively. In other words, since the small area that is each of the plurality of divided intermediate images can be acquired in the entire effective area of the optical sensor 23, high resolution can be easily achieved. Therefore, according to the information acquisition device 1 according to the present embodiment, information regarding the imaged surface can be acquired with a resolution higher than that of the optical sensor 23.

(第2の実施形態)
第2の光学系22の第1のレンズアレイ221及び第2のレンズアレイ222としては、9つの集光素子が配列された集光素子アレイも利用可能である。図9は、図1の第2の光学系22が中間像を9つに分割する場合の被撮像面に関する情報の取得について説明するための図である。図9に示す例では、集光素子アレイの各集光素子は、縦及び横方向にそれぞれ3つ配列されているとする。このとき、被撮像面の領域や中間像は、9つに分割される。図9に示す例では、図8に示す被撮像面の各領域A,B,Cが、それぞれ3つに分割されている。この場合、情報取得装置1は、例えばA1→A2→A3→B1→B2→B3→C1→C2→C3の順に各領域に関する情報を取得し、9分割して得られた情報をつなぎ合わせて被撮像面に関する情報を取得する。なお、撮像面上の各領域A1,A2,A3からの光は、図7のフレームnでは、タイミングt0~t1の間に取得される。このとき、照明系3は、撮像面上の各領域A1,A2,A3を順次照明可能に構成され得る。なお、3分割や9分割の場合を例示したが、これに限らない。分割数は、所望の解像性能や光学系のサイズなどの各種の制限に応じて適宜設定され得る。
(Second embodiment)
As the first lens array 221 and the second lens array 222 of the second optical system 22, a condensing element array in which nine condensing elements are arranged can also be used. FIG. 9 is a diagram for explaining acquisition of information regarding the imaged surface when the second optical system 22 in FIG. 1 divides the intermediate image into nine parts. In the example shown in FIG. 9, it is assumed that three condensing elements of the condensing element array are arranged in each of the vertical and horizontal directions. At this time, the area of the imaged surface and the intermediate image are divided into nine parts. In the example shown in FIG. 9, each region A, B, and C of the imaged surface shown in FIG. 8 is divided into three regions. In this case, the information acquisition device 1 acquires information regarding each area in the order of, for example, A1 → A2 → A3 → B1 → B2 → B3 → C1 → C2 → C3, and connects the information obtained by dividing the area into 9 areas. Obtain information regarding the imaging surface. Note that the light from each area A1, A2, and A3 on the imaging surface is acquired between timings t0 and t1 in frame n in FIG. At this time, the illumination system 3 may be configured to be able to sequentially illuminate each area A1, A2, and A3 on the imaging surface. In addition, although the case of 3 divisions and 9 divisions was illustrated, it is not limited to this. The number of divisions can be appropriately set according to various limitations such as desired resolution performance and the size of the optical system.

このように、撮像面上の第1の光学系21の画角内の複数の領域に対応する複数の分割像が撮像面231上に重畳して形成される撮像系2と、複数の領域に対応する複数の分割像を時間分割して光センサ23へ伝達する照明系3とを有する情報取得装置1によれば、各領域に関する情報として分離して取得することができるため、被投射面(被撮像面)上の情報の解像度を分割数の数に応じて増やすことが可能となる。 In this way, the imaging system 2 in which a plurality of divided images corresponding to a plurality of regions within the angle of view of the first optical system 21 on the imaging surface are formed in a superimposed manner on the imaging surface 231; According to the information acquisition device 1 having the illumination system 3 that time-divides a plurality of corresponding divided images and transmits them to the optical sensor 23, since information regarding each region can be acquired separately, the projection surface ( It becomes possible to increase the resolution of information on the imaged surface) in accordance with the number of divisions.

(第3の実施形態)
各実施形態に係る情報取得装置1は、夜間などの外部照明がない場合や、被撮像領域内に照明系3の他の発光体がない場合に、最もS/Nが高い情報を得ることができる。このような中、光センサ23が可視光に感度を有し、かつ、被撮像面から撮像面231までの光路上の光学系が一定の可視光透過率を有する場合には、照明系3が照明光を被撮像面上に照射しなくても、被撮像面からの光が光センサ23に到達する。したがって、このような場合には、撮像面上のある領域の情報を取得する際に、他の領域の情報も光センサ23に到達するため、他の領域からの光の成分がノイズとして取得される。このため、例えば情報取得部43は、照明光を被撮像面上に照射する前に、照明光の被投射領域全体、すなわち被撮像面のうちの第1の光学系21の画角全体に関する情報(情報N)を取得する。情報取得部43は、取得した情報Nをバイアス成分として、上述したようにそれぞれ単独で取得した各領域A,B,Cに関する情報から、情報Nを差し引く。この構成によれば、S/Nを向上させることが可能となる。
(Third embodiment)
The information acquisition device 1 according to each embodiment can obtain information with the highest S/N when there is no external lighting such as at night or when there are no other light emitters of the illumination system 3 within the imaged area. can. Under these circumstances, if the optical sensor 23 is sensitive to visible light and the optical system on the optical path from the imaged surface to the imaged surface 231 has a constant visible light transmittance, the illumination system 3 Light from the imaged surface reaches the optical sensor 23 without illuminating the imaged surface. Therefore, in such a case, when acquiring information on a certain area on the imaging surface, information on other areas also reaches the optical sensor 23, so light components from other areas are acquired as noise. Ru. For this reason, for example, before irradiating the illumination light onto the imaged surface, the information acquisition unit 43 acquires information regarding the entire area on which the illumination light is projected, that is, the entire viewing angle of the first optical system 21 on the imaged surface. (Information N) is acquired. The information acquisition unit 43 uses the acquired information N as a bias component and subtracts the information N from the information regarding each area A, B, and C that has been acquired independently as described above. According to this configuration, it is possible to improve the S/N.

(第4の実施形態)
情報取得装置1は、赤外領域を含む波長の光を使用するように構成されてもよい。具体的には、照明系3の各光源LS1,LS2,LS3は、赤外領域を含む発光波長の照明光源である。また、撮像系2の各光学系は、赤外領域の波長を有する光に対してパワーを有する。また、光センサ23は、赤外領域の波長を有する光を検出可能なセンサである。この構成によれば、外光の影響を受けずに、被検出物を検出することが可能となる。
(Fourth embodiment)
The information acquisition device 1 may be configured to use light with a wavelength including an infrared region. Specifically, each of the light sources LS1, LS2, and LS3 of the illumination system 3 is an illumination light source with an emission wavelength that includes an infrared region. Further, each optical system of the imaging system 2 has power for light having a wavelength in the infrared region. Further, the optical sensor 23 is a sensor capable of detecting light having a wavelength in the infrared region. According to this configuration, the object to be detected can be detected without being affected by external light.

(第5の実施形態)
上述の各実施形態では、被撮像面上の各領域に応じて配置された照明系3から、選択的に各領域を照明する場合を例として説明したが、これに限らない。例えば、中間像位置又はその近傍に、対象とする領域の他の領域からの光を遮光又は偏向する手段も適宜利用可能である。
(Fifth embodiment)
In each of the above-described embodiments, an example has been described in which each region is selectively illuminated from the illumination system 3 arranged according to each region on the imaged surface, but the present invention is not limited to this. For example, means for blocking or deflecting light from other areas of the target area can be appropriately used at or near the intermediate image position.

例えば、各分割中間像A´,B´,C´が形成される位置に、それぞれ光シャッタ機能を設け、時間順次に第2の光学系22に各領域A,B,Cからの光を導いてもよい。図10は、図7の情報取得処理における照明制御の別の一例について説明するための図である。図10に示す例では、分割数は、図9に示す例と同様に、縦方向に3つ、横方向に3つの9分割である。ここで、照明光学系31及び光源32は、例えば被撮像面の全体を照明するように構成される。情報取得装置1の照明系3は、図10に示す光シャッタ33さらに備える。光シャッタ33は、被撮像面の分割数に応じた数の複数のシャッタを有する。光シャッタ33は、各シャッタが独立して動作可能に構成される。光シャッタ33の各シャッタは、撮像面上の各領域に対応するように配列される。換言すれば、光シャッタ33は、複数の分割中間像にそれぞれ対応する被撮像面の領域からの光を選択的に通過させる。 For example, a light shutter function is provided at the position where each divided intermediate image A', B', C' is formed, and light from each area A, B, C is guided to the second optical system 22 in time order. It's okay. FIG. 10 is a diagram for explaining another example of lighting control in the information acquisition process of FIG. 7. In the example shown in FIG. 10, the number of divisions is nine, three in the vertical direction and three in the horizontal direction, similarly to the example shown in FIG. Here, the illumination optical system 31 and the light source 32 are configured to illuminate the entire imaged surface, for example. The illumination system 3 of the information acquisition device 1 further includes an optical shutter 33 shown in FIG. The optical shutter 33 has a plurality of shutters whose number corresponds to the number of divisions of the imaged surface. The optical shutters 33 are configured such that each shutter can operate independently. Each shutter of the optical shutter 33 is arranged so as to correspond to each area on the imaging surface. In other words, the optical shutter 33 selectively allows light from regions of the imaged surface corresponding to the plurality of divided intermediate images to pass through.

照明制御部41は、各フレームにおいて、光シャッタ33の各領域A1→A1→A2→A3→B1→B2→B3→C1→C2→C3に対応する順序で各シャッタの透過/遮光を切り替える。撮像制御部42は、照明制御部41が光シャッタ33の透過領域を切り替えるタイミング、すなわち光シャッタ33に各領域からの光を通過させるタイミングに同期するタイミングで、光シャッタ33の透過領域に応じた受光信号を光センサ23に出力させる。また、情報取得部43は、各領域に関する情報として、光シャッタ33の透過領域を通過した光に関する光センサ23からの受光信号を取得する。 In each frame, the illumination control unit 41 switches transmission/blocking of each shutter in an order corresponding to each area A1→A1→A2→A3→B1→B2→B3→C1→C2→C3 of the optical shutter 33. The imaging control unit 42 changes the transmission area of the optical shutter 33 at a timing synchronized with the timing at which the illumination control unit 41 switches the transmission area of the optical shutter 33, that is, the timing at which the optical shutter 33 passes light from each area. The light reception signal is outputted to the optical sensor 23. The information acquisition unit 43 also acquires a light reception signal from the optical sensor 23 regarding the light that has passed through the transmission area of the optical shutter 33 as information regarding each area.

なお、光シャッタ33に代えて、例えばデジタルマイクロミラーアレイなどを中間像位置に配置してもよい。デジタルマイクロミラーアレイは、撮像面上の各領域に対応するように配列された各ミラーの傾斜をミラーごとに制御し、各領域からの光を偏向する。また、例えば、光シャッタ33に代えて、液晶シャッタや機械的なシャッタを中間像位置に設けることにより、被撮像面上の領域ごとに選択的に撮像面231上に結像させてもよい。これらの構成であっても、上述の実施形態と同様の効果が得られる。 Note that instead of the optical shutter 33, for example, a digital micromirror array or the like may be arranged at the intermediate image position. The digital micromirror array controls the tilt of each mirror arranged to correspond to each region on the imaging surface, and deflects light from each region. Further, for example, instead of the optical shutter 33, a liquid crystal shutter or a mechanical shutter may be provided at an intermediate image position to selectively form an image on the imaging surface 231 for each region on the imaging surface. Even with these configurations, effects similar to those of the above-described embodiments can be obtained.

(第6の実施形態)
上述の実施形態に係る技術は、TOFセンサに適用可能である。つまり、情報取得装置1は、被撮像面上における被検出物の有無や、当該被検出物上の任意の物点までの距離、当該被検出物の形状などのTOFセンサの光遅延情報を含む被撮像面に関する情報(光強度情報)を取得することもできる。
(Sixth embodiment)
The techniques according to the embodiments described above are applicable to TOF sensors. That is, the information acquisition device 1 includes optical delay information of the TOF sensor, such as the presence or absence of a detected object on the imaged surface, the distance to an arbitrary object point on the detected object, and the shape of the detected object. Information regarding the imaged surface (light intensity information) can also be acquired.

図3~5に示す構成において、照明系3は、照明光として、例えばパルス光を被撮像面の複数の領域の各々に照射可能に構成される。光センサ23は、光の遅延情報を取得するためのセンサである。情報取得部43は、照明系3がパルス光を被撮像面に照射してから、被撮像面で反射された光が撮像面231で検出されるまでの時間を計測する。情報取得部43は、計測された時間に基づいて、光センサ23の基準位置(発光点/面や撮像面231)から被検出物までの距離を取得することができる。また、2次元TOFセンサに適用する場合には、被検出物上の複数の物点までの複数の距離に基づいて、被検出物の3次元形状を取得することもできる。また、時間計測において、複数の微小な時間を区切り、その前後の区間の計測値の差分を比較することで、被検出物の移動を検出できる。なお、照明光としては、パルス光に限らず、周波数変調された連続波も適宜利用可能である。この場合、送信波と受信波との周波数差を測定して距離を算出する。 In the configurations shown in FIGS. 3 to 5, the illumination system 3 is configured to be able to irradiate each of a plurality of regions of the imaged surface with, for example, pulsed light as illumination light. The optical sensor 23 is a sensor for acquiring light delay information. The information acquisition unit 43 measures the time from when the illumination system 3 irradiates the imaged surface with pulsed light until the light reflected from the imaged surface is detected by the imaged surface 231. The information acquisition unit 43 can acquire the distance from the reference position (light emitting point/plane or imaging surface 231) of the optical sensor 23 to the detected object based on the measured time. Furthermore, when applied to a two-dimensional TOF sensor, the three-dimensional shape of the detected object can also be acquired based on a plurality of distances to a plurality of object points on the detected object. Furthermore, in time measurement, the movement of the object to be detected can be detected by dividing a plurality of minute periods of time and comparing the difference between the measured values in the sections before and after the intervals. Note that the illumination light is not limited to pulsed light, and frequency-modulated continuous waves can also be used as appropriate. In this case, the distance is calculated by measuring the frequency difference between the transmitted wave and the received wave.

図11は、図1の情報取得装置1により実行される、情報取得処理の別の一例を示すタイミングチャートである。図11に示す例では、任意のフレームnと、フレームnに続くフレームn+1が示されている。 FIG. 11 is a timing chart showing another example of the information acquisition process executed by the information acquisition device 1 of FIG. 1. In the example shown in FIG. 11, an arbitrary frame n and a frame n+1 following frame n are shown.

照明制御部41は、各フレームの時間内において、各光源LS1,LS2,LS3を順次パルス発光させ、被撮像面上の各領域A,B,Cを順次照明する。撮像制御部42は、各領域が照明された後、すなわち照明制御部41が各領域を照明するタイミングに同期するタイミングで、各領域からの光に応じた受光信号を光センサ23に出力させる。また、情報取得部43は、各領域に関する情報として、各領域が照明された後に受光した光に関する光センサ23からの受光信号を取得し、当該時分割された受光信号と、照明光の発光タイミングとに基づいて時間を計測する。 The illumination control unit 41 sequentially causes each of the light sources LS1, LS2, and LS3 to emit pulsed light within the time of each frame, and sequentially illuminates each region A, B, and C on the imaged surface. The imaging control unit 42 causes the optical sensor 23 to output a light reception signal corresponding to the light from each area after each area is illuminated, that is, at a timing synchronized with the timing at which the illumination control unit 41 illuminates each area. Further, the information acquisition unit 43 acquires a light reception signal from the optical sensor 23 regarding light received after each region is illuminated as information regarding each region, and uses the time-divided light reception signal and the emission timing of illumination light. Measure time based on.

なお、図10を参照して上述した、光シャッタ33などが設けられた情報取得装置1に係る技術もTOFセンサに適用可能である。この場合、パルス光の照明は、被撮像面の全体に対して行われてもよいし、領域ごとに行われてもよい。 Note that the technology related to the information acquisition device 1 provided with the optical shutter 33 and the like described above with reference to FIG. 10 is also applicable to the TOF sensor. In this case, the pulsed light illumination may be applied to the entire imaged surface or may be applied to each region.

なお、光シャッタ33などが設けられて、被撮像面から撮像面231までの光路が、各領域に関する情報の取得タイミング間で互いに異なるように制限されている場合には、照明系3からの照明光と、被撮像面からの反射光とを同一の光線経路とすることも可能である。 Note that if an optical shutter 33 or the like is provided and the optical path from the imaged surface to the imaged surface 231 is restricted to differ between acquisition timings of information regarding each region, the illumination from the illumination system 3 It is also possible to make the light and the reflected light from the imaged surface the same ray path.

このように、本実施形態に係る技術を適用したTOFセンサによれば、分割数に応じて分解能(解像度)を向上させることができる。したがって、当該TOFセンサによれば、光センサ23の分解能よりが大きい分解能で計測可能であるため、解像性能を向上させることができる。例えば3分割した場合には、3倍の解像度で計測可能である。 In this way, according to the TOF sensor to which the technology according to the present embodiment is applied, the resolution can be improved according to the number of divisions. Therefore, according to the TOF sensor, measurement can be performed with a resolution higher than that of the optical sensor 23, so that resolution performance can be improved. For example, if the image is divided into three parts, measurement can be performed with three times the resolution.

なお、被撮像面上の対象の領域ごとに1回のパルス照明を行う場合を例として説明したが、これに限らない。情報取得の期間中、被撮像面上の対象の領域に複数回パルス照射したり、複数回変調駆動したりすることにより、計測精度をさらに向上させることができる。 Note that, although the case where one pulse illumination is performed for each target area on the imaged surface has been described as an example, the present invention is not limited to this. During the information acquisition period, the measurement accuracy can be further improved by irradiating the target region on the imaged surface multiple times with pulses or performing modulation driving multiple times.

(第7の実施形態)
上述した各実施形態では、分割された複数の領域が同一のサイズである場合、すなわち各領域に関する取り込み画角が同一である場合を例として説明したが、これに限らない。集光レンズアレイの集光素子の配列数が増加すると、集光素子間の境界部が増加するため、境界部の情報が正しく取得されないおそれがある。
(Seventh embodiment)
In each of the embodiments described above, the case where the plurality of divided regions have the same size, that is, the case where the capture angle of view for each region is the same, has been described as an example, but the present invention is not limited to this. As the number of condensing elements in the condensing lens array increases, the number of boundaries between the condensing elements increases, so there is a risk that information on the boundaries may not be acquired correctly.

図12は、図1の第2の光学系22の構成の別の一例を示す図である。図13は、図12の第2の光学系22が中間像を9つに分割する場合の被撮像面に関する情報の取得について説明するための図である。例えば図13に示すように、被撮像領域の中央部には、周辺部より優先度の高い情報が存在することがある。このような中、被撮像面上を複数の領域に分割する場合、その境界部に関するデータが欠落するおそれがある。そこで、本実施形態に係る情報取得装置1では、中央部の欠落データをなくすために、中央部の領域が周辺部の領域より大きくなるように、被撮像面上を複数の領域に分割する。具体的には、図12に示すように、本実施形態に係る集光素子アレイにおいて、中央部に配置される集光素子のサイズは、周辺部に配置される集光素子のサイズより大きい。なお、分割された中間像(分割中間像)の各々を光センサ23の撮像面231上に結像させるため、各レンズ(集光素子)の間において、サイズは異なるが、焦点距離は概略一致している。なお、第1の光学系21は、第2の光学系22の構成と同様の構成を有する。この構成によれば、被撮像領域内で比較的重要な情報が存在することが多い中央部に関して、境界部が現れる頻度を小さくすることができる。つまり、集光レンズアレイの各集光素子間でのデータの欠落をなくすことができる。また、一般に、撮像レンズ(各集光素子)の周辺部を通過した光を撮像すると、収差により解像度が低下する。つまり、集光レンズアレイの中央部に、集光レンズアレイの各集光素子間の境界部が現れる頻度を小さくすることにより、この各集光素子の周辺解像の小ささを補完できるという効果もある。 FIG. 12 is a diagram showing another example of the configuration of the second optical system 22 in FIG. 1. FIG. 13 is a diagram for explaining acquisition of information regarding the imaged surface when the second optical system 22 of FIG. 12 divides the intermediate image into nine parts. For example, as shown in FIG. 13, information with a higher priority may exist in the central part of the imaged area than in the peripheral part. Under these circumstances, when dividing the imaged surface into a plurality of regions, there is a risk that data regarding the boundaries may be lost. Therefore, in the information acquisition device 1 according to the present embodiment, in order to eliminate missing data in the center, the imaged surface is divided into a plurality of regions such that the center region is larger than the peripheral region. Specifically, as shown in FIG. 12, in the light condensing element array according to this embodiment, the size of the light condensing elements arranged at the center is larger than the size of the light condensing elements arranged at the periphery. Note that in order to form each of the divided intermediate images (divided intermediate images) on the imaging surface 231 of the optical sensor 23, each lens (condensing element) has a different size, but the focal length is approximately the same. We are doing so. Note that the first optical system 21 has the same configuration as the second optical system 22. According to this configuration, it is possible to reduce the frequency at which a boundary portion appears in the central portion of the imaged region where relatively important information is often present. In other words, data loss between the respective condensing elements of the condensing lens array can be eliminated. Furthermore, in general, when capturing an image of light that has passed through the periphery of the imaging lens (each condensing element), the resolution decreases due to aberrations. In other words, by reducing the frequency at which the boundaries between the condensing elements of the condensing lens array appear in the center of the condensing lens array, the small peripheral resolution of each condensing element can be compensated for. There is also.

なお、被撮像領域の周辺部に、中央部より優先度の高い情報が存在する場合もあり得る。この場合には、周辺部の領域が中央部の領域より大きくなるように、被撮像面上を複数の領域に分割する。具体的には、本実施形態に係る集光素子アレイにおいて、周辺部に配置される集光素子のサイズは、中央部に配置される集光素子のサイズより大きい。この構成によれば、周辺部に境界部が現れる頻度を小さくすることができる。つまり、被撮像領域のレンズアレイ間のデータの欠落をなくすことができ、また、各集光素子の周辺解像の小ささを補完できる。 Note that there may be cases where information with a higher priority exists in the periphery of the imaged area than in the center. In this case, the imaged surface is divided into a plurality of regions such that the peripheral region is larger than the central region. Specifically, in the light condensing element array according to this embodiment, the size of the light condensing elements arranged in the peripheral part is larger than the size of the light collecting element arranged in the central part. According to this configuration, it is possible to reduce the frequency that a boundary portion appears in the peripheral portion. In other words, data loss between lens arrays in the imaged region can be eliminated, and the small peripheral resolution of each condensing element can be compensated for.

このように、本実施形態に係る集光レンズアレイにおいて、隣接する各集光素子のサイズは互いに異なる。このように、精度を高めたい領域に対応する各集光素子のサイズを適宜大きくすることで、レンズアレイ間で生じる、被撮像領域に関するデータの欠落を低減できる。 In this way, in the condensing lens array according to this embodiment, the sizes of adjacent condensing elements are different from each other. In this way, by appropriately increasing the size of each condensing element corresponding to a region for which accuracy is desired to be increased, it is possible to reduce data loss regarding the imaged region that occurs between lens arrays.

(第8の実施形態)
上述の各実施形態に係る第1のレンズアレイ221は、例えば図2に示すように、配列されているレンズ(集光素子)ごとにレンズ中心を有している。つまり、第1のレンズアレイ221は、配列されているレンズごとに光軸を有しているため、複数の光軸(光軸群)を有する。一方で、光センサ23の物体側であって、撮像系2の光センサ23に近い側に配置された集光素子(結像レンズ)は、単レンズ又は共通の光軸を有する複合レンズ(組レンズ)である。このような中、第1のレンズアレイ221の光軸群のうちの中央の光軸と、結像レンズの光軸とは、略一致していることが好ましい。
(Eighth embodiment)
The first lens array 221 according to each of the embodiments described above has a lens center for each arrayed lens (condensing element), as shown in FIG. 2, for example. That is, the first lens array 221 has a plurality of optical axes (optical axis group) because each arrayed lens has an optical axis. On the other hand, the condensing element (imaging lens) disposed on the object side of the optical sensor 23 and on the side closer to the optical sensor 23 of the imaging system 2 is a single lens or a compound lens (a set of lenses) having a common optical axis. lens). Under these circumstances, it is preferable that the central optical axis of the optical axis group of the first lens array 221 and the optical axis of the imaging lens substantially coincide.

しかしながら、第1のレンズアレイ221の光軸群のうちの中央の光軸と、結像レンズの光軸とを略一致させた場合には、第1のレンズアレイ221の周辺部に配置された集光素子の光軸と、結像レンズの光軸は一致しない。したがって、第1のレンズアレイ221の中央部のレンズで形成される像と、周辺部のレンズで形成される像とは、倍率誤差や、歪の度合いが必ずしも一致しない。換言すれば、複数の分割中間像にそれぞれ対応する撮像面231上の各分割像A´´,B´´,C´´に発生する光学的な収差は、各領域の間で異なる。 However, when the central optical axis of the optical axis group of the first lens array 221 and the optical axis of the imaging lens are made to substantially match, the The optical axis of the condensing element and the optical axis of the imaging lens do not coincide. Therefore, the image formed by the lenses at the center of the first lens array 221 and the image formed by the lenses at the periphery do not necessarily match in magnification error or degree of distortion. In other words, the optical aberrations generated in each of the divided images A'', B'', and C'' on the imaging surface 231 corresponding to the plurality of divided intermediate images are different between the regions.

そこで、本実施形態に係るメモリ5は、それぞれの領域で発生する収差の量をあらかじめテーブルとして記憶している。収差は、倍率誤差や球面収差、コマ収差、非点収差などの領域ごとに異なる収差を含む。テーブルは、収差の種類ごとにメモリ5に用意されていてもよい。例えば歪量に関して、処理回路4の情報取得部43は、領域ごとの歪補正データ(テーブル)を用いて画像処理を施し、それぞれの領域で異なった歪量で光センサ23上に形成される分割像を歪補正する。換言すれば、情報取得部43は、複数の領域それぞれに適した画像処理パラメータを用いて補正を行う。情報取得部43は、補正された情報を合成して1つの被撮像情報(被撮像面に関する情報)として生成する。 Therefore, the memory 5 according to this embodiment stores in advance the amount of aberration occurring in each region as a table. Aberrations include aberrations that differ from region to region, such as magnification error, spherical aberration, coma aberration, and astigmatism. A table may be prepared in the memory 5 for each type of aberration. For example, regarding the amount of distortion, the information acquisition unit 43 of the processing circuit 4 performs image processing using distortion correction data (table) for each area, and divides the image into segments formed on the optical sensor 23 with different amounts of distortion in each area. Correct the distortion of the image. In other words, the information acquisition unit 43 performs the correction using image processing parameters suitable for each of the plurality of regions. The information acquisition unit 43 synthesizes the corrected information and generates one imaged information (information regarding the imaged surface).

このように、本実施形態に係る情報処理装置1は、複数の分割中間像にそれぞれ対応する撮像面231上の各分割像に発生する光学的な収差を、領域ごとに補正する画像処理を行う。また、当該画像処理においては、複数の分割中間像に対応する複数の領域のうちの少なくとも2つの領域に関して、互いに異なるパラメータを用いて分割像を補正する。このため、第1のレンズアレイ221の周辺部に配置されたレンズと、中央部に配置されたレンズとの間で歪量が異なっていても、個別に補正することができるので被撮像として正しい情報を得ることができる。 In this way, the information processing device 1 according to the present embodiment performs image processing to correct optical aberrations occurring in each divided image on the imaging surface 231 corresponding to a plurality of divided intermediate images for each region. . Furthermore, in the image processing, the divided images are corrected using mutually different parameters for at least two of the plurality of regions corresponding to the plurality of divided intermediate images. Therefore, even if the amount of distortion is different between the lenses arranged at the periphery of the first lens array 221 and the lenses arranged at the center, they can be corrected individually, so that they are correct as the imaged object. You can get information.

(第9の実施形態)
なお、第1のレンズアレイ221において、各集光素子の間の境界部を完全にゼロにすることはできないため、データが欠落する場合もある。そこで、取り込み画像の機械学習を行うことで欠落したデータを補完して、被撮像情報を生成してもよい。つまり、本実施形態に係る情報取得装置1は、境界部のデータが欠落した画像データの入力に応じて、欠落した境界部のデータが補完された画像データを出力するようにパラメータが学習された機械学習モデルを使用して、複数の分割像の各々を補正してもよい。機械学習モデルの入出力データは、各領域の画像データに限らず、各領域の受光信号であってもよい。情報取得部43は、光センサ23からの時分割された受光信号又は当該受光信号に基づいて生成された各領域の画像データを機械学習モデルに入力する。また、情報取得部43は、機械学習モデルの出力を取得する。このような機械学習モデルは、例えば高解像度の光センサを用いて得られた受光信号又は画像データを正解データとして学習されればよい。なお、入力側の学習用データは、高解像度の光センサを用いて得られた受光信号又は画像データから生成されてもよい。
(Ninth embodiment)
Note that in the first lens array 221, the boundaries between the respective condensing elements cannot be made completely zero, so data may be missing. Therefore, the missing data may be supplemented by performing machine learning on the captured image to generate imaged information. In other words, the information acquisition device 1 according to the present embodiment has learned parameters such that, in response to input of image data with missing border data, the information acquisition device 1 outputs image data in which the missing border data is supplemented. A machine learning model may be used to correct each of the plurality of segmented images. The input/output data of the machine learning model is not limited to image data of each region, but may be a light reception signal of each region. The information acquisition unit 43 inputs the time-divided light reception signal from the optical sensor 23 or the image data of each region generated based on the light reception signal to the machine learning model. The information acquisition unit 43 also acquires the output of the machine learning model. Such a machine learning model may be trained using, for example, a received light signal or image data obtained using a high-resolution optical sensor as correct data. Note that the learning data on the input side may be generated from a light reception signal or image data obtained using a high-resolution optical sensor.

なお、機械学習モデルは、複数の関数が合成されたパラメータ付き合成関数であり、複数の調整可能な関数及びパラメータの組合せにより定義されるとする。機械学習モデルは、複数の調整可能な関数及びパラメータの組合せにより定義される如何なるパラメータ付き合成関数であってもよい。なお、機械学習モデルは、畳み込みニューラルネットワーク(CNN)であってもよいし、全結合のネットワークであってもよい。なお、学習済みの機械学習モデルのパラメータは、例えばメモリ5に記憶されているとする。 Note that the machine learning model is a composite function with parameters that is a composite of multiple functions, and is defined by a combination of multiple adjustable functions and parameters. A machine learning model may be any parameterized composite function defined by a combination of multiple tunable functions and parameters. Note that the machine learning model may be a convolutional neural network (CNN) or a fully connected network. Note that it is assumed that the parameters of the learned machine learning model are stored in the memory 5, for example.

(第10の実施形態)
図14は、図1の撮像系2及び照明系3の構成の別の一例を示す断面図である。図14の構成において、照明系3の光源32は、第1の波長λ1の光を発する第1の光源LS1と、第2の波長λ2の光を発する第2の光源LS2とを有する。ここで、波長λ1の光とは、波長スペクトルのピーク波長が波長λ1である光を言う。同様に、波長λ2の光とは、波長スペクトルのピーク波長が波長λ2である光を言う。第1の光源LS1及び第2の光源LS2は、被撮像面上の同一の領域を照射する。第1の光学系21は、被投射面(被撮像面)からの光を、被撮像面の共役面である結像面に配置された光センサ23の撮像面231上に結像する。第2の光学系22は、第1の光学系21の光路上に配置され、被撮像面からの光を、当該光の波長に応じた方向へ偏向する。具体的には、第2の光学系22は、第1の光学系21と、光センサ23との間に配置される。また、第2の光学系22は、一例として、平板状の回折格子である。回折格子としての第2の光学系22は、第1の波長λ1に対しては第1次偏向角α1を有し、第2の波長λ2に対しては第1次偏向角α2を有し、いずれの波長に対しても第1次偏向角の強度が最も強くなるように設計されているとする。なお、回折格子としては、0次光の少ないブレーズドタイプが望ましい。
(Tenth embodiment)
FIG. 14 is a sectional view showing another example of the configuration of the imaging system 2 and illumination system 3 in FIG. 1. In the configuration of FIG. 14, the light source 32 of the illumination system 3 includes a first light source LS1 that emits light with a first wavelength λ1 and a second light source LS2 that emits light with a second wavelength λ2. Here, the light of wavelength λ1 refers to light whose wavelength spectrum has a peak wavelength of wavelength λ1. Similarly, light with wavelength λ2 refers to light whose wavelength spectrum has a peak wavelength of wavelength λ2. The first light source LS1 and the second light source LS2 illuminate the same area on the imaged surface. The first optical system 21 forms an image of light from a projection surface (imaged surface) onto an imaging surface 231 of a photosensor 23 disposed on an imaging surface that is a conjugate plane of the imaged surface. The second optical system 22 is arranged on the optical path of the first optical system 21 and deflects light from the imaged surface in a direction according to the wavelength of the light. Specifically, the second optical system 22 is arranged between the first optical system 21 and the optical sensor 23. Further, the second optical system 22 is, for example, a flat diffraction grating. The second optical system 22 as a diffraction grating has a first-order deflection angle α1 for the first wavelength λ1 and a first-order deflection angle α2 for the second wavelength λ2, It is assumed that the design is such that the intensity of the first-order deflection angle is the strongest for any wavelength. Note that as the diffraction grating, a blazed type diffraction grating that emits less zero-order light is desirable.

図14に示すように、回折格子としての第2の光学系22によって、被撮像面上の同一の領域からの光のうち、第1の波長λ1の光と、第2の波長λ2の光とは、光センサ23の撮像面231上のわずかにずれた位置に結像する。この撮像面231上でのズレ量をΔとする。このとき、第1の光学系21及び第2の光学系22によって、撮像面231上の同一の領域に結像する光は、被撮像面上の領域のうちの異なる領域からの光である。つまり、本実施形態に係る第2の光学系22は、第1の光学系21により伝達可能な被撮像面の領域のうちの、撮像面231上でのズレ量Δに応じた量だけずれた複数の領域からの光を、撮像面231のうちの同一の領域に結像する光学系である。 As shown in FIG. 14, the second optical system 22 serving as a diffraction grating separates the light with the first wavelength λ1 and the light with the second wavelength λ2 out of the light from the same area on the imaged surface. is imaged at a slightly shifted position on the imaging surface 231 of the optical sensor 23. The amount of deviation on this imaging surface 231 is assumed to be Δ. At this time, the light that is imaged on the same region on the imaging surface 231 by the first optical system 21 and the second optical system 22 is light from different regions among the regions on the imaging surface. In other words, the second optical system 22 according to the present embodiment shifts the area of the imaged surface that can be transmitted by the first optical system 21 by an amount corresponding to the amount of deviation Δ on the imaging surface 231. This is an optical system that images light from a plurality of areas onto the same area of the imaging surface 231.

回折格子としての第2の光学系22は、撮像面231上でのズレ量Δが光センサ23の画素ピッチの整数倍の値とならないように、回折角度が設計されている。一例として、撮像面231上でのズレ量Δは、光センサ23の半画素ピッチである。 The diffraction angle of the second optical system 22 as a diffraction grating is designed so that the amount of deviation Δ on the imaging surface 231 does not become a value that is an integral multiple of the pixel pitch of the optical sensor 23. As an example, the amount of deviation Δ on the imaging surface 231 is a half pixel pitch of the optical sensor 23.

照明制御部41は、各光源LS1,LS2を順次発光させ、被撮像面上の同一の領域を順次照明する。撮像制御部42は、領域が照明されている間、すなわち照明制御部41が各波長の光を被撮像面上に照射するタイミングに同期するタイミングで、被撮像面からの光に応じた受光信号を光センサ23に出力させる。情報取得部43は、光の波長ごとの被撮像面に関する情報として、光センサ23からの受光信号の時系列を、各波長の光の照明タイミングに応じて時分割して取得する。情報取得部43は、光の波長ごとの被撮像面に関する情報を合成し、光センサ23の画素数の約2倍の数のデータを取得する。 The illumination control unit 41 sequentially causes the light sources LS1 and LS2 to emit light to sequentially illuminate the same area on the imaged surface. The imaging control unit 42 generates a light reception signal corresponding to the light from the imaged surface while the area is illuminated, that is, at a timing synchronized with the timing at which the illumination control unit 41 irradiates the imaged surface with light of each wavelength. is output to the optical sensor 23. The information acquisition unit 43 acquires the time series of the light reception signal from the optical sensor 23 by time-division according to the illumination timing of the light of each wavelength as information regarding the imaged surface for each wavelength of light. The information acquisition unit 43 combines information regarding the imaged surface for each wavelength of light, and acquires data about twice the number of pixels of the optical sensor 23.

構成によれば、一方の波長の光によって各画素の間に形成される像と、他方の波長の光によって各画素に形成される光とを読み取ることができるため、光センサ23の物理的な解像度より大きい解像度に高解像化することができる。 According to the configuration, it is possible to read an image formed between each pixel by light of one wavelength and a light formed at each pixel by light of the other wavelength, so that the physical It is possible to increase the resolution to a higher resolution.

なお、撮像面231上でのズレ量Δは、半画素ピッチに限らず、1.5画素ピッチや2.5画素ピッチなどあっても構わない。これらのズレ量Δの場合には、情報取得後の処理において補正すればよい。また、後処理において補正する場合には、2波長の場合であっても、0.5画素ピッチ単位のズレ量Δでなくてもよい。また、後処理における補正は、超解像と同様にして実施されても構わない。 Note that the amount of deviation Δ on the imaging surface 231 is not limited to a half-pixel pitch, but may be a 1.5-pixel pitch, a 2.5-pixel pitch, or the like. In the case of these deviation amounts Δ, it may be corrected in processing after information acquisition. Furthermore, when correcting in post-processing, even in the case of two wavelengths, the deviation amount Δ does not need to be in units of 0.5 pixel pitch. Further, correction in post-processing may be performed in the same manner as in super-resolution.

なお、本実施形態では、2波長を使用する場合を例示したが、3波長以上の複数の波長が使用されてもよい。撮像面231上でのズレ量Δを、使用される波長の数の逆数の値とすれば、簡易に画素間を補完することができる。また、第2の光学系22として平板状の回折格子を利用するため、第1の光学系21(撮像光学系)の構成を変更することなく光学系に配置できる。 In addition, in this embodiment, the case where two wavelengths are used is illustrated, but a plurality of wavelengths of three or more may be used. If the amount of deviation Δ on the imaging surface 231 is set to a value that is the reciprocal of the number of wavelengths used, it is possible to easily interpolate between pixels. Furthermore, since a flat diffraction grating is used as the second optical system 22, it can be placed in the optical system without changing the configuration of the first optical system 21 (imaging optical system).

(第11の実施形態)
図15は、図14の撮像系2及び照明系3の構成の別の一例を示す断面図である。本実施形態に係る第1の光学系21は、少なくとも2つの光学素子を有する。図15に示す例では、第1の光学系21は、第1の光学素子211及び第2の光学素子212を有する。第1の光学素子211及び第2の光学素子212としては、例えばレンズが利用可能である。本実施形態に係る第2の光学系22は、第1の光学系21の少なくとも2つの光学素子の間に配置される。第2の光学系22は、第1の光学系21の絞り位置に配置することが望ましい。この構成によれば、第1の光学系21の内部に第2の光学系22が配置されるため、第2の光学系22の配置精度の要求を緩和することができる。
(Eleventh embodiment)
FIG. 15 is a cross-sectional view showing another example of the configuration of the imaging system 2 and illumination system 3 in FIG. 14. The first optical system 21 according to this embodiment has at least two optical elements. In the example shown in FIG. 15, the first optical system 21 includes a first optical element 211 and a second optical element 212. For example, lenses can be used as the first optical element 211 and the second optical element 212. The second optical system 22 according to this embodiment is arranged between at least two optical elements of the first optical system 21. It is desirable that the second optical system 22 be placed at the aperture position of the first optical system 21. According to this configuration, since the second optical system 22 is arranged inside the first optical system 21, the requirement for placement accuracy of the second optical system 22 can be relaxed.

また、本実施形態に係る技術によれば、第1の光学系21及び第2の光学系22を一体に形成することもできる。一体化された第1の光学系21及び第2の光学系22によれば、各素子の保持精度を向上させることができるため、結像性能の品質を向上できる。 Further, according to the technology according to this embodiment, the first optical system 21 and the second optical system 22 can also be formed integrally. According to the integrated first optical system 21 and second optical system 22, it is possible to improve the holding accuracy of each element, and therefore the quality of imaging performance can be improved.

なお、第10の実施形態及び第11の実施形態において、透過タイプの第2の光学系22を例示したが、これに限らない。第2の光学系22としては、透過タイプであってもよいし、反射タイプであってもよい。また、第2の光学系22として最も好適な回折格子を例示したが、これに限らない。第2の光学系22としては、波長依存性を有する光学素子であればよい。第2の光学系22としては、高い分散特性を有する光学素子も適宜利用可能である。 Note that in the tenth embodiment and the eleventh embodiment, the transmission type second optical system 22 is illustrated, but the present invention is not limited to this. The second optical system 22 may be of a transmission type or a reflection type. Further, although the most suitable diffraction grating is illustrated as the second optical system 22, the present invention is not limited thereto. The second optical system 22 may be any optical element that has wavelength dependence. As the second optical system 22, an optical element having high dispersion characteristics can also be used as appropriate.

なお、第1~9の実施形態において、各分割中間像が形成される位置に領域ごとに異なる波長選択性を有するカラーフィルタなどが設けられている場合や、第10~11の実施形態において、光センサ23からの受光信号(画像データ)がカラー分離されることにより、波長ごとの情報が取得されてもよい。この場合には、照明光を順次照明したり、受光信号を時分割して取得したりしなくてもよい。 Note that in the first to ninth embodiments, when a color filter or the like having different wavelength selectivity for each region is provided at the position where each divided intermediate image is formed, or in the tenth to eleventh embodiments, Information for each wavelength may be acquired by color-separating the light reception signal (image data) from the optical sensor 23. In this case, it is not necessary to sequentially illuminate the illumination light or to acquire the light reception signal in a time-division manner.

なお、各実施形態に係る技術は、適宜組合せ可能である。例えば、第10~11の実施形態に係る撮像系2及び照明系3の構成がTOFセンサに適用されてもよい。 Note that the techniques according to each embodiment can be combined as appropriate. For example, the configurations of the imaging system 2 and illumination system 3 according to the tenth to eleventh embodiments may be applied to a TOF sensor.

各実施形態に係る情報取得装置1は、CPUなどの制御装置と、ROMやRAMなどの記憶装置と、HDD、CDドライブ装置などの外部記憶装置と、ディスプレイ装置などの表示装置と、キーボードやマウスなどの入力装置を備えており、通常のコンピュータを利用したハードウェア構成となっていても構わない。 The information acquisition device 1 according to each embodiment includes a control device such as a CPU, a storage device such as a ROM or a RAM, an external storage device such as an HDD or a CD drive device, a display device such as a display device, and a keyboard and a mouse. It may be equipped with an input device such as, and may have a hardware configuration using a normal computer.

各実施形態に係る情報取得装置1で実行される情報取得プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD-ROM、フレキシブルディスク(FD)、CD-R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されて提供される。 The information acquisition program executed by the information acquisition device 1 according to each embodiment is an installable or executable file on a CD-ROM, flexible disk (FD), CD-R, or DVD (Digital Versatile Disk). It is recorded and provided on a computer-readable recording medium such as.

また、各実施形態に係る情報取得装置1で実行される情報取得プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、本実施形態の~装置で実行される情報取得プログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。 Further, the information acquisition program executed by the information acquisition device 1 according to each embodiment may be stored on a computer connected to a network such as the Internet, and may be provided by being downloaded via the network. . Further, the information acquisition program executed by the device of this embodiment may be configured to be provided or distributed via a network such as the Internet.

また、各実施形態に係る情報取得装置1で実行される情報取得プログラムを、ROM等に予め組み込んで提供するように構成してもよい。 Further, the information acquisition program executed by the information acquisition device 1 according to each embodiment may be provided by being incorporated in a ROM or the like in advance.

各実施形態に係る情報取得装置1で実行される情報取得プログラムは、上述した各部(照明制御部41、撮像制御部42及び情報取得部43)を含むモジュール構成となっており、実際のハードウェアとしてはCPU(プロセッサ)が上記記憶媒体から情報取得プログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ、照明制御部41、撮像制御部42及び情報取得部43が主記憶装置上に生成されるようになっている。 The information acquisition program executed by the information acquisition device 1 according to each embodiment has a module configuration including the above-mentioned units (lighting control unit 41, imaging control unit 42, and information acquisition unit 43), and is based on actual hardware. When the CPU (processor) reads and executes the information acquisition program from the storage medium, each of the above units is loaded onto the main storage device, and the lighting control unit 41, imaging control unit 42, and information acquisition unit 43 are stored in the main storage device. It is now generated on top.

1 情報取得装置
2 撮像系
3 照明系
4 処理回路
5 メモリ
21 第1の光学系
22 第2の光学系
23 光センサ
31,CL1,CL2,CL3 照明光学系
32,LS1,LS2,LS3 光源
33 光シャッタ
41 照明制御部
42 撮像制御部
43 情報取得部
211 第1の光学素子
212 第2の光学素子
221 第1のレンズアレイ
222 第2のレンズアレイ
223 結像レンズ
231 撮像面
1 Information acquisition device 2 Imaging system 3 Illumination system 4 Processing circuit 5 Memory 21 First optical system 22 Second optical system 23 Optical sensor 31, CL1, CL2, CL3 Illumination optical system 32, LS1, LS2, LS3 Light source 33 Light Shutter 41 Illumination control section 42 Imaging control section 43 Information acquisition section 211 First optical element 212 Second optical element 221 First lens array 222 Second lens array 223 Imaging lens 231 Imaging surface

特開2016-035398号公報Japanese Patent Application Publication No. 2016-035398

Claims (15)

光の遅延情報を取得するセンサであって、撮像面へ入射する光の強度分布に応じた受光信号を出力する光センサと、
被撮像面からの光を前記被撮像面の共役面に伝達する第1の光学系と、
前記第1の光学系により伝達可能な前記被撮像面の領域のうちの複数の領域からの光を前記撮像面のうちの同一の領域に結像する第2の光学系と、
時分割された前記受光信号に基づいて、前記被撮像面に関する情報を取得する処理回路と
を具備する情報取得装置。
an optical sensor that acquires light delay information and outputs a light reception signal according to the intensity distribution of light incident on an imaging surface;
a first optical system that transmits light from a surface to be imaged to a conjugate surface of the surface to be imaged;
a second optical system that images light from a plurality of regions of the imaged surface that can be transmitted by the first optical system onto the same region of the imaged surface;
An information acquisition device comprising: a processing circuit that acquires information regarding the imaged surface based on the time-divided light reception signal.
前記第1の光学系は、前記被撮像面から前記撮像面までの光路上の前記被撮像面の前記第1の光学系を介した共役面に中間像を形成し、
前記第2の光学系は、前記第1の光学系から前記撮像面までの光路上に配置され、前記中間像を分割し、複数の分割中間像をそれぞれ前記撮像面の同一の領域に結像する、
請求項1に記載の情報取得装置。
The first optical system forms an intermediate image on a conjugate plane of the imaged surface on the optical path from the imaged surface to the imaged surface via the first optical system,
The second optical system is disposed on the optical path from the first optical system to the imaging surface, divides the intermediate image, and forms a plurality of divided intermediate images, respectively, on the same area of the imaging surface. do,
The information acquisition device according to claim 1.
前記複数の分割中間像の各々は、対応する前記被撮像面の各領域からの光により形成される、請求項2に記載の情報取得装置。 The information acquisition device according to claim 2, wherein each of the plurality of divided intermediate images is formed by light from each corresponding region of the imaged surface. 前記複数の分割中間像にそれぞれ対応する前記被撮像面の領域ごとに照明可能な照明系をさらに備え、
前記処理回路は、前記照明系に前記各領域を照明させる照明タイミングと同期するタイミングで、前記光センサからの前記受光信号を時分割して取得する、
請求項3に記載の情報取得装置。
further comprising an illumination system capable of illuminating each region of the imaged surface corresponding to each of the plurality of divided intermediate images,
The processing circuit time-divisionally acquires the light reception signal from the optical sensor at a timing synchronized with the illumination timing at which the illumination system illuminates each region.
The information acquisition device according to claim 3.
前記照明系は、赤外領域を含む発光波長の照明光源を有する、請求項4に記載の情報取得装置。 5. The information acquisition device according to claim 4, wherein the illumination system includes an illumination light source with an emission wavelength that includes an infrared region. 前記複数の分割中間像にそれぞれ対応する前記被撮像面の領域からの光を選択的に通過させる光シャッタをさらに備え、
前記処理回路は、前記光シャッタに前記各領域からの光を通過させるタイミングと同期するタイミングで、前記光センサからの前記受光信号を時分割して取得する、
請求項3から請求項5のうちのいずれか1項に記載の情報取得装置。
further comprising an optical shutter that selectively passes light from regions of the imaged surface corresponding to the plurality of divided intermediate images, respectively;
The processing circuit time-divisionally acquires the light reception signal from the optical sensor at a timing that is synchronized with the timing at which the light from each region passes through the optical shutter.
The information acquisition device according to any one of claims 3 to 5.
前記第2の光学系は、
前記複数の分割中間像にそれぞれ対応した集光素子が配列された1つの集光素子アレイと、
前記集光素子アレイを通過した前記複数の分割中間像に対応する光をそれぞれ前記撮像面の同一の領域に結像する1つ又は複数の集光素子と
を有する、請求項2から請求項6のうちのいずれか1項に記載の情報取得装置。
The second optical system is
one condensing element array in which condensing elements respectively corresponding to the plurality of divided intermediate images are arranged;
Claims 2 to 6 further comprising: one or more condensing elements that respectively focus light corresponding to the plurality of divided intermediate images that have passed through the condensing element array onto the same area of the imaging surface. The information acquisition device according to any one of the above.
前記集光素子アレイにおいて、各集光素子は、矩形状又はハニカム状に配列される、請求項7に記載の情報取得装置。 8. The information acquisition device according to claim 7, wherein in the condensing element array, each condensing element is arranged in a rectangular shape or a honeycomb shape. 前記集光素子アレイにおいて、隣接する各集光素子のサイズは、互いに異なる、請求項8に記載の情報取得装置。 9. The information acquisition device according to claim 8, wherein in the condensing element array, adjacent condensing elements have different sizes. 前記集光素子アレイにおいて、中央部の集光素子のサイズは、周辺部の集光素子のサイズより大きい、請求項9に記載の情報取得装置。 10. The information acquisition device according to claim 9, wherein in the condensing element array, the size of the condensing elements in the central part is larger than the size of the condensing elements in the peripheral part. 前記処理回路は、前記複数の分割中間像にそれぞれ対応する、前記撮像面に形成される分割像に発生する光学的な収差を、前記複数の分割中間像の各々に対応する領域ごとに補正する画像処理を実行する、請求項2から請求項10のうちのいずれか1項に記載の情報取得装置。 The processing circuit corrects optical aberrations occurring in the divided images formed on the imaging surface, which correspond to the plurality of divided intermediate images, for each region corresponding to each of the plurality of divided intermediate images. The information acquisition device according to any one of claims 2 to 10, which performs image processing. 前記処理回路は、前記画像処理において、前記複数の分割中間像に対応する前記複数の領域のうちの少なくとも2つの領域に関して、互いに異なるパラメータを用いて補正する、請求項11に記載の情報取得装置。 The information acquisition device according to claim 11, wherein the processing circuit corrects at least two of the plurality of regions corresponding to the plurality of divided intermediate images using mutually different parameters in the image processing. . 前記第2の光学系は、前記第1の光学系の光路上に配置され、前記被撮像面からの光を、当該光の波長に応じた方向へ偏向し、
前記時分割された受光信号は、当該光の波長ごとの前記被撮像面に関する情報である、
請求項1に記載の情報取得装置。
The second optical system is disposed on the optical path of the first optical system, and deflects the light from the imaged surface in a direction according to the wavelength of the light,
The time-divided light reception signal is information regarding the imaged surface for each wavelength of the light,
The information acquisition device according to claim 1.
前記第2の光学系は、回折格子である、請求項13に記載の情報取得装置。 The information acquisition device according to claim 13, wherein the second optical system is a diffraction grating. 前記第1の光学系は、少なくとも2つの光学素子を有し、
前記第2の光学系は、前記少なくとも2つの光学素子の間に配置される、
請求項13又は14に記載の情報取得装置。
The first optical system has at least two optical elements,
the second optical system is arranged between the at least two optical elements;
The information acquisition device according to claim 13 or 14.
JP2019217478A 2019-11-29 2019-11-29 Information acquisition device Active JP7380146B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019217478A JP7380146B2 (en) 2019-11-29 2019-11-29 Information acquisition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019217478A JP7380146B2 (en) 2019-11-29 2019-11-29 Information acquisition device

Publications (2)

Publication Number Publication Date
JP2021087199A JP2021087199A (en) 2021-06-03
JP7380146B2 true JP7380146B2 (en) 2023-11-15

Family

ID=76085885

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019217478A Active JP7380146B2 (en) 2019-11-29 2019-11-29 Information acquisition device

Country Status (1)

Country Link
JP (1) JP7380146B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007047660A2 (en) 2005-10-16 2007-04-26 Mediapod Llc Apparatus, system and method for increasing quality of digital image capture
JP2009272758A (en) 2008-05-01 2009-11-19 Nippon Hoso Kyokai <Nhk> Color imaging apparatus
JP2017034722A (en) 2016-11-04 2017-02-09 株式会社ニコン Image processing system and imaging apparatus
JP2017207695A (en) 2016-05-20 2017-11-24 株式会社ニコン Optical device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007047660A2 (en) 2005-10-16 2007-04-26 Mediapod Llc Apparatus, system and method for increasing quality of digital image capture
JP2009512396A (en) 2005-10-16 2009-03-19 メディアポッド リミテッド ライアビリティ カンパニー Apparatus, system and method for enhancing the quality of digital video capture
JP2009272758A (en) 2008-05-01 2009-11-19 Nippon Hoso Kyokai <Nhk> Color imaging apparatus
JP2017207695A (en) 2016-05-20 2017-11-24 株式会社ニコン Optical device
JP2017034722A (en) 2016-11-04 2017-02-09 株式会社ニコン Image processing system and imaging apparatus

Also Published As

Publication number Publication date
JP2021087199A (en) 2021-06-03

Similar Documents

Publication Publication Date Title
US11002538B2 (en) Device, method, and medium for measuring distance information using a parallax calculated from multi-viewpoint images
JP2022001882A (en) Distance measuring device and movable body
JP6784295B2 (en) Distance measurement system, distance measurement method and program
US9131136B2 (en) Lens arrays for pattern projection and imaging
JP6484072B2 (en) Object detection device
JP6478725B2 (en) Measuring device and robot
US9402067B2 (en) Imaging optical system for 3D image acquisition apparatus, and 3D image acquisition apparatus including the imaging optical system
US9383549B2 (en) Imaging system
KR101974578B1 (en) Imaging optical system for 3D image acquisition apparatus, and 3D image acquisition apparatus including the imaging optical system
US10902570B2 (en) Processing apparatus, processing system, imaging apparatus, processing method, and storage medium
US20170142406A1 (en) Apparatus for and method of illumination control for acquiring image information and depth information simultaneously
EP3170025B1 (en) Wide field-of-view depth imaging
WO2019204479A1 (en) Image reconstruction from image sensor output
EP3683542B1 (en) Distance measuring module
JP2019502921A (en) LIDAR scanning apparatus and LIDAR scanning system
JP2013124985A (en) Compound-eye imaging apparatus and distance measuring device
US20180276844A1 (en) Position or orientation estimation apparatus, position or orientation estimation method, and driving assist device
JP2019216376A (en) Image processing apparatus, imaging apparatus, and image processing method
US20220030183A1 (en) Infrared and non-infrared channel blender for depth mapping using structured light
US12063341B2 (en) Stereoscopic image capturing systems
US10362235B2 (en) Processing apparatus, processing system, image pickup apparatus, processing method, and storage medium
JP2006322795A (en) Image processing device, image processing method and image processing program
US11812137B2 (en) Measurement apparatus, image capturing apparatus, control method, and recording medium
JP2017167126A (en) Range-finding device and moving body
US20160255294A1 (en) Image capturing apparatus and image processing apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220914

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230731

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230808

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230906

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231003

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231016

R151 Written notification of patent or utility model registration

Ref document number: 7380146

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151