JP7372589B2 - Underwater laser viewing device - Google Patents

Underwater laser viewing device Download PDF

Info

Publication number
JP7372589B2
JP7372589B2 JP2019135049A JP2019135049A JP7372589B2 JP 7372589 B2 JP7372589 B2 JP 7372589B2 JP 2019135049 A JP2019135049 A JP 2019135049A JP 2019135049 A JP2019135049 A JP 2019135049A JP 7372589 B2 JP7372589 B2 JP 7372589B2
Authority
JP
Japan
Prior art keywords
image
feature points
underwater
search
fourier transform
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019135049A
Other languages
Japanese (ja)
Other versions
JP2021018193A (en
Inventor
孝男 倉田
淳 伊澤
明弘 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IHI Corp
Original Assignee
IHI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IHI Corp filed Critical IHI Corp
Priority to JP2019135049A priority Critical patent/JP7372589B2/en
Publication of JP2021018193A publication Critical patent/JP2021018193A/en
Application granted granted Critical
Publication of JP7372589B2 publication Critical patent/JP7372589B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Optical Radar Systems And Details Thereof (AREA)

Description

本発明は、水中レーザ視認装置に関し、特に、撮影した画像中に含まれる対象物の存在が不明確な場合であっても対象物の画像を取得することができる水中レーザ視認装置に関する。
The present invention relates to an underwater laser viewing device, and more particularly to an underwater laser viewing device that can obtain an image of an object even when the presence of the object included in a photographed image is unclear. .

海洋調査や海洋工事等を行う場合、海底の状況や海底に設置された物体の状況を視認する必要がある。しかしながら、透明度が極めて低い濁水中では、通常の照明を点灯しても光が散乱してしまい、撮影した画像から対象物を視認することができない。 When conducting marine surveys or marine construction, it is necessary to visually check the conditions of the seabed and the conditions of objects installed on the seabed. However, in turbid water with extremely low transparency, even if normal lighting is turned on, the light will be scattered, making it impossible to visually recognize the object from the captured image.

そこで、特許文献1に記載されたように、濁水中の対象物に向けてパルス状のレーザ光を照射し、このパルスレーザ光が対象物に反射して戻ってきた瞬間にシャッタを開けて撮影するようにしたゲートカメラが既に開発されている。 Therefore, as described in Patent Document 1, a pulsed laser beam is irradiated toward an object in turbid water, and the moment the pulsed laser beam reflects off the object and returns, the shutter is opened and the image is taken. A gate camera designed to do this has already been developed.

特開平7-72250号公報Japanese Patent Application Publication No. 7-72250

しかしながら、特許文献1に記載されたようなゲートカメラを用いた場合であっても、より深い位置にある物体を視認したい場合やより離れた位置から物体を視認したい場合には、光量やコントラストが不足し、撮影した画像中に含まれる対象物の存在が不明確となり、対象物である物体を視認することができないという問題があった。 However, even when using a gate camera such as the one described in Patent Document 1, when you want to visually recognize an object at a deeper position or from a more distant position, the amount of light and contrast may vary. There was a problem in that the existence of the target object included in the photographed image was unclear due to insufficient number of lenses, and the target object could not be visually recognized.

本発明はかかる問題点に鑑み創案されたものであり、撮影した画像中に含まれる対象物の存在が不明確な場合であっても対象物の画像を取得することができる水中レーザ視認装置を提供することを目的とする。
The present invention was devised in view of such problems, and is an underwater laser visual recognition method that can obtain an image of an object even when the presence of the object included in the photographed image is unclear. The purpose is to provide equipment.

発明によれば、濁水中の対象物に対して離れた位置に配置可能な水中機器に搭載された水中レーザ視認装置であって、前記対象物に対してパルス状のレーザ光を発振するレーザ光照射装置と、前記対象物からの反射光に合わせて開閉可能なシャッタを備えた撮像装置と、前記レーザ光照射装置及び前記撮像装置を制御するとともに前記撮像装置により撮影した複数の撮影画像を保存する処理装置と、を備え、前記処理装置は、前記撮影画像に前記対象物が含まれるか否か探索し、前記対象物が含まれていると判断された探索画像から特徴点を抽出し、複数の前記探索画像から抽出した前記特徴点を照合して対応関係を決定し、前記特徴点を位置合せして前記探索画像を積算し、前記対象物を含む積算画像を取得するように構成されており、さらに、前記処理装置は、前記撮影画像を複数の領域に分割して領域ごとに高速フーリエ変換を行って再構成画像を作成し、該再構成画像から物体の輪郭を抽出することによって、前記撮影画像に前記対象物が含まれるか否か探索するように構成され、前記撮影画像の全体を高速フーリエ変換した結果の波長に基づいて前記領域の大きさを設定するように構成されている、ことを特徴とする水中レーザ視認装置が提供される。
According to the present invention, there is provided an underwater laser viewing device mounted on an underwater device that can be placed at a position remote from an object in turbid water, the laser oscillating a pulsed laser beam toward the object. a light irradiation device; an imaging device including a shutter that can be opened and closed in accordance with the reflected light from the object; and a plurality of images taken by the imaging device while controlling the laser light irradiation device and the imaging device. a processing device for storing, the processing device searches for whether or not the target object is included in the photographed image, and extracts feature points from the search image that is determined to include the target object. , configured to collate the feature points extracted from the plurality of search images to determine a correspondence relationship, align the feature points, integrate the search images, and obtain an integrated image including the target object. Further, the processing device divides the photographed image into a plurality of regions, performs fast Fourier transform on each region to create a reconstructed image, and extracts an outline of the object from the reconstructed image. is configured to search whether or not the target object is included in the captured image, and configured to set the size of the area based on the wavelength of the result of fast Fourier transform of the entire captured image. An underwater laser viewing device is provided.

前記処理装置は、前記高速フーリエ変換の最大値、平均値、標準偏差、平均値/最大値又は一次微分値の何れか一つの数値を用いて前記再構成画像を作成するように構成されていてもよい。 The processing device is configured to create the reconstructed image using any one of the maximum value, average value, standard deviation, average value/maximum value, or first-order differential value of the fast Fourier transform. Good too.

上述した本発明に係る濁水中における対象物の画像取得方法及び水中レーザ視認装置によれば、光量やコントラストが不足し、撮影した画像中に含まれる対象物の存在が不明確となり、対象物である物体を視認することができないような状態であっても、対象物を含む撮影画像(探索画像)から特徴点を抽出し、特徴点を位置合わせしながら探索画像を積算することによって、対象物を視認可能な画像を取得することができる。 According to the method for acquiring an image of an object in turbid water and the underwater laser viewing device according to the present invention described above, the amount of light and contrast are insufficient, and the existence of the object included in the photographed image becomes unclear, making it difficult to identify the object. Even if an object cannot be visually recognized, the feature points can be extracted from the photographed image (search image) that includes the object, and the search images can be integrated while aligning the feature points. A visible image can be obtained.

本発明の一実施形態に係る水中レーザ視認装置を示す説明図であり、(a)は使用状態、(b)は概略構成図、である。BRIEF DESCRIPTION OF THE DRAWINGS It is explanatory drawing which shows the underwater laser visual recognition apparatus based on one Embodiment of this invention, (a) is a usage state, (b) is a schematic block diagram. 濁水中の撮影画像を示す一例であり、(a)は距離5mの撮影画像、(b)は距離11mの撮影画像、(c)は距離13mの撮影画像、(d)は距離15mの撮影画像、を示している。This is an example of images taken in turbid water. (a) is an image taken at a distance of 5 m, (b) is an image taken at a distance of 11 m, (c) is an image taken at a distance of 13 m, and (d) is an image taken at a distance of 15 m. , is shown. 本発明の一実施形態に係る濁水中における対象物の画像取得方法を示すフロー図である。FIG. 2 is a flow diagram showing a method for acquiring an image of an object in turbid water according to an embodiment of the present invention. 距離15mの撮影画像の全体を高速フーリエ変換した結果を示す説明図であり、(a)はFFT画像、(b)は輝度分布図、である。It is an explanatory diagram showing the result of fast Fourier transform of the whole photographed image at a distance of 15 m, (a) is an FFT image, and (b) is a brightness distribution diagram. 図4(b)に示した輝度分布図を縦方向と横方向に分離した輝度分布図であり、(a)は横方向の輝度分布図、(b)は縦方向の輝度分布図、である。This is a brightness distribution map obtained by separating the brightness distribution map shown in FIG. 4(b) into vertical and horizontal directions, where (a) is a horizontal brightness distribution map, and (b) is a vertical brightness distribution map. . 画像再構成工程を示す説明図であり、(a)は概念図、(b)は標準偏差を用いた再構成画像、である。FIG. 3 is an explanatory diagram showing an image reconstruction process, in which (a) is a conceptual diagram and (b) is a reconstructed image using standard deviation. 画像再構成工程の変形例を示す説明図であり、(a)は第一変形例、(b)は第二変形例、である。It is explanatory drawing which shows the modification of an image reconstruction process, (a) is a 1st modification, (b) is a 2nd modification. 画像再構成工程の変形例を示す説明図であり、(a)は第三変形例、(b)は第四変形例、である。It is explanatory drawing which shows the modification of an image reconstruction process, (a) is a 3rd modification, (b) is a 4th modification. 輪郭抽出工程を示す説明図であり、(a)は標準偏差を用いた再構成画像から対象物の輪郭を抽出した状態の画像、(b)は抽出された輪郭のみを示した画像、である。It is an explanatory diagram showing a contour extraction process, (a) is an image in which the contour of the object is extracted from the reconstructed image using the standard deviation, and (b) is an image showing only the extracted contour. .

以下、本発明の実施形態について図1(a)~図9(b)を用いて説明する。ここで、図1は、本発明の一実施形態に係る水中レーザ視認装置を示す説明図であり、(a)は使用状態、(b)は概略構成図、である。 Embodiments of the present invention will be described below with reference to FIGS. 1(a) to 9(b). Here, FIG. 1 is an explanatory diagram showing an underwater laser viewing device according to an embodiment of the present invention, in which (a) is a usage state and (b) is a schematic configuration diagram.

本発明の一実施形態に係る水中レーザ視認装置1は、例えば、図1(a)及び図1(b)に示したように、濁水中の対象物Xに対して離れた位置に配置可能な水中機器2に搭載されており、対象物Xに対してパルス状のレーザ光を発振するレーザ光照射装置3と、対象物Xからの反射光に合わせて開閉可能なシャッタ41を備えた撮像装置4と、レーザ光照射装置3及び撮像装置4を制御するとともに撮像装置4により撮影した複数の撮影画像を保存する処理装置5と、を備えている。 The underwater laser viewing device 1 according to an embodiment of the present invention can be placed at a position away from an object X in turbid water, for example, as shown in FIGS. 1(a) and 1(b). An imaging device that is installed in the underwater equipment 2 and includes a laser beam irradiation device 3 that emits pulsed laser light toward the object X, and a shutter 41 that can be opened and closed according to the reflected light from the object X. 4, and a processing device 5 that controls the laser beam irradiation device 3 and the imaging device 4 and stores a plurality of images taken by the imaging device 4.

水中機器2は、内部の水密状態を保持しつつ潜水可能な構造体である。水中機器2は、例えば、箱型の筐体であってもよいし、無人水中航走体(UUV: Unmanned Underwater Vehicle)であってもよい。また、水中機器2は、曳航式であってもよいし、浮沈式であってもよいし、自律航走式であってもよい。 The underwater device 2 is a structure that can be submerged while maintaining an internal watertight state. The underwater device 2 may be, for example, a box-shaped housing or an unmanned underwater vehicle (UUV). Further, the underwater device 2 may be of a towed type, a floating type, or an autonomous navigation type.

レーザ光照射装置3は、濁水中の対象物Xに向けてパルス状のレーザ光を発振する機器である。濁水中の懸濁粒子は、発振されたレーザ光に対して様々な散乱光を生じさせる。したがって、レーザ光の反射光を全て受振すると懸濁粒子の散乱光も含まれてしまい対象物Xの反射光が埋もれてしまうこととなる。 The laser beam irradiation device 3 is a device that oscillates a pulsed laser beam toward an object X in turbid water. Suspended particles in turbid water cause various types of scattered light to be emitted by the laser beam. Therefore, if all the reflected light of the laser beam is received, the scattered light of the suspended particles will also be included, and the reflected light of the object X will be buried.

そこで、本実施形態では、対象物Xからの反射光を受振するタイミングに合わせてシャッタ41を瞬間的に開状態に切り替え、光を撮像装置4に通過させるシャッタ41を用いている。このように、高速で開閉可能なシャッタ41を用いることにより、シャッタ41を閉状態に保持することによって懸濁粒子の散乱光を除去することができる。 Therefore, in this embodiment, the shutter 41 is momentarily switched to an open state in accordance with the timing of receiving the reflected light from the object X, and the shutter 41 is used to allow the light to pass through the imaging device 4. In this way, by using the shutter 41 that can be opened and closed at high speed, scattered light from suspended particles can be removed by keeping the shutter 41 closed.

具体的には、レーザ光照射装置3は、距離計測センサ(図示せず)を備えており、対象物Xの距離を計測しつつ、対象物Xの反射光が撮像装置4に届くタイミングを処理装置5で算出している。シャッタ41には、レーザ光の発振と同時にレーザ光照射装置3から同期信号が送信される。シャッタ41を開状態に切り替えるタイミングは処理装置5からシャッタ41に送信される。 Specifically, the laser beam irradiation device 3 includes a distance measurement sensor (not shown), and measures the distance to the object X while processing the timing at which the reflected light from the object X reaches the imaging device 4. It is calculated by device 5. A synchronizing signal is transmitted to the shutter 41 from the laser beam irradiation device 3 simultaneously with the oscillation of the laser beam. The timing for switching the shutter 41 to the open state is transmitted from the processing device 5 to the shutter 41 .

撮像装置4は、例えば、フォーカスレンズを含む光増幅器であるイメージ・インテンシファイヤ、受光素子、走査装置等によって構成される高感度カメラである。なお、撮像装置4は、レーザ光の反射光に基づいて画像を取得可能なものであれば、他の構成を有するカメラであってもよい。 The imaging device 4 is a high-sensitivity camera that includes, for example, an image intensifier that is an optical amplifier including a focus lens, a light receiving element, a scanning device, and the like. Note that the imaging device 4 may be a camera having another configuration as long as it is capable of acquiring an image based on reflected light of a laser beam.

処理装置5は、例えば、CPU(Central Processing Unit)、メモリ、ハードディスク等を備えたコンピュータである。処理装置5は、内蔵されたプログラムに基づいて、レーザ光照射装置3及び撮像装置4の操作を制御し、撮像装置4により撮影された撮影画像を保存する。また、処理装置5は、不鮮明な撮影画像から対象物Xを探索し、対象物Xの存在を視認可能な画像を取得する処理も行う。また、処理装置5は、画像を表示するモニタを備えていてもよい。 The processing device 5 is, for example, a computer equipped with a CPU (Central Processing Unit), a memory, a hard disk, and the like. The processing device 5 controls the operations of the laser beam irradiation device 3 and the imaging device 4 based on a built-in program, and stores images taken by the imaging device 4. The processing device 5 also performs a process of searching for the target object X from the unclear photographed image and acquiring an image in which the presence of the target object X can be visually recognized. Furthermore, the processing device 5 may include a monitor that displays images.

上述した水中レーザ視認装置1は、例えば、図1(a)に示したように、水中機器2に搭載され、水中に沈められる。例えば、対象物Xが海底に存在する場合には、水中機器2を海底に近い水深まで潜水させる必要がある。一般に、水深が深くなるに連れて太陽光の光量は少なくなり、海底付近では外乱等により濁度が高くなる傾向にあることから、対象物Xにより接近して撮像することが必要となる。 The underwater laser viewing device 1 described above is mounted on an underwater device 2 and submerged in water, for example, as shown in FIG. 1(a). For example, if the object X is on the seabed, the underwater device 2 needs to be submerged at a depth close to the seabed. Generally, as the depth of water increases, the amount of sunlight decreases, and turbidity tends to increase near the ocean floor due to disturbances, so it is necessary to get closer to the object X and take an image.

しかしながら、現実には、対象物Xに接近することが困難な場合や海底付近まで水中機器2を潜水させることが困難な場合もある。例えば、対象物Xが潮流によって揺動する物体である場合には、水中機器2が対象物Xに衝突する可能性がある。また、対象物Xが存在する海底には岩や海生植物等の障害物が存在する場合には、水中機器2を海底付近で航走させることができないか、航走させることができたとしても水中機器2の制御が複雑になってしまう。 However, in reality, it may be difficult to approach the object X or it may be difficult to dive the underwater device 2 to near the seabed. For example, if the object X is an object that swings due to tidal currents, there is a possibility that the underwater device 2 will collide with the object X. In addition, if there are obstacles such as rocks or marine plants on the seabed where object However, the control of the underwater equipment 2 becomes complicated.

したがって、できるだけ離れた位置から対象物Xを撮影することができる手法が望まれている。ここで、図2は、濁水中の撮影画像を示す一例であり、(a)は距離5mの撮影画像、(b)は距離11mの撮影画像、(c)は距離13mの撮影画像、(d)は距離15mの撮影画像、を示している。 Therefore, a method is desired that allows photographing the object X from a position as far away as possible. Here, FIG. 2 shows an example of images taken in turbid water, where (a) is an image taken at a distance of 5 m, (b) is an image taken at a distance of 11 m, (c) is an image taken at a distance of 13 m, and (d ) indicates an image taken at a distance of 15 m.

対象物Xは、試験用に用意した試験体であり、例えば、矩形のホワイトボードである。このホワイトボードには、表面に複数の縦線や横線、数字、記号等を表示し、四隅に発光体を付している。かかる対象物Xを海底に設置し、水中レーザ視認装置1を対象物Xから徐々に距離を離しながら撮像した撮影画像のうち代表的なものを図2(a)~図2(d)に示している。 The object X is a test object prepared for the test, and is, for example, a rectangular whiteboard. This whiteboard displays a plurality of vertical lines, horizontal lines, numbers, symbols, etc. on its surface, and has light emitters attached to the four corners. The object X is installed on the seabed, and representative images are shown in FIGS. 2(a) to 2(d), which are taken while gradually moving the underwater laser viewing device 1 away from the object X. ing.

図2(a)~図2(d)を参照すれば、対象物Xからの距離が離れるにしたがって対象物Xの存在は不明確になり、13m離れた撮影画像では対象物Xの存在を視認することができるものの、15m離れた撮影画像では対象物Xの存在を視認することができない。 Referring to FIGS. 2(a) to 2(d), the presence of object X becomes unclear as the distance from object X increases, and the presence of object However, the existence of the object X cannot be visually recognized in a photographed image taken 15 meters away.

そこで、本実施形態では、図3に示した濁水中における対象物の画像取得方法に基づいて、撮影画像を処理装置5で処理することによって対象物Xを視認可能な画像を取得するようにしている。ここで、図3は、本発明の一実施形態に係る濁水中における対象物の画像取得方法を示すフロー図である。 Therefore, in this embodiment, based on the method for acquiring an image of an object in turbid water shown in FIG. There is. Here, FIG. 3 is a flow diagram showing a method for acquiring an image of an object in turbid water according to an embodiment of the present invention.

本実施形態に係る画像取得方法は、対象物Xから離れた位置に水中レーザ視認装置1を配置して対象物Xが存在し得る方向に撮像装置4のカメラを向けて撮像し、撮像した撮影画像から対象物Xを認識することができるか否かを判断し、対象物Xの存在を確認できた撮影画像から特徴点を抽出し、特徴点を基準に撮影画像を積算して、対象物Xの存在を視認可能にした画像を取得するものである。 In the image acquisition method according to the present embodiment, the underwater laser viewing device 1 is placed at a position away from the object X, and the camera of the imaging device 4 is directed in a direction where the object It is determined whether object X can be recognized from the image, feature points are extracted from the photographed images in which the presence of object This is to obtain an image in which the presence of X is visible.

具体的には、本実施形態に係る画像取得方法は、図3に示したように、撮影工程Step1と、画像選択工程Step2と、ノイズ除去工程Step3と、探索工程Step4と、抽出工程Step5と、積算可否確認工程Step6と、照合工程Step7と、積算工程Step8と、設定枚数確認工程Step9と、先鋭化工程Step10と、を備えている。 Specifically, as shown in FIG. 3, the image acquisition method according to the present embodiment includes a photographing process Step 1, an image selection process Step 2, a noise removal process Step 3, a search process Step 4, an extraction process Step 5, The process includes an integration confirmation process Step 6, a verification process Step 7, an integration process Step 8, a set number of sheets confirmation process Step 9, and a sharpening process Step 10.

撮影工程Step1は、濁水中の対象物Xに対して離れた位置から対象物Xを含み得る複数の撮影画像を取得する工程である。複数の撮影画像は、略同じ距離だけ対象物Xから離れた位置から撮像されたものである。かかる撮影画像は、具体的には、上述した水中レーザ視認装置1によって撮像される。 The photographing process Step 1 is a process of acquiring a plurality of photographed images that may include the target object X from positions distant from the target object X in the turbid water. The plurality of captured images are captured from positions separated from the object X by approximately the same distance. Specifically, such a captured image is captured by the underwater laser viewing device 1 described above.

画像選択工程Step2は、複数の撮影画像から対象物Xの探索を行う画像を選択する工程である。略同じ距離だけ対象物Xから離れた位置から撮像された複数の撮影画像から任意に一枚の撮影画像を選択する。この工程は、積算する設定枚数に到達するまで繰り返される。 The image selection step Step 2 is a step of selecting an image for searching for the target object X from a plurality of captured images. One photographed image is arbitrarily selected from a plurality of photographed images taken from positions separated from the object X by approximately the same distance. This process is repeated until the set number of sheets to be accumulated is reached.

ノイズ除去工程Step3は、選択画像からノイズを除去する工程である。例えば、メディアンフィルタ等の一般的な手法により選択画像のノイズを除去する。メディアンフィルタは、順序統計に基づくフィルタの中でエッジ情報を残すフィルタとしてよく知られている。ノイズ除去工程Step3後に、レベル補正やPSF(Point Spread Function)補正等の鮮鋭化処理を行ってもよい。 The noise removal step Step 3 is a step of removing noise from the selected image. For example, noise in the selected image is removed using a common method such as a median filter. The median filter is well known as a filter that leaves edge information among filters based on order statistics. After the noise removal step Step 3, sharpening processing such as level correction and PSF (Point Spread Function) correction may be performed.

探索工程Step4は、選択画像に対象物Xが含まれているか否か探索する工程である。具体的には、探索工程Step4は、選択画像を複数の領域αに分割して領域ごとに高速フーリエ変換(FFT:Fast Fourier Transform)を行って再構成画像を作成する画像再構成工程Step41と、再構成画像から物体の輪郭βを抽出する輪郭抽出工程Step42と、再構成画像に対象物Xが含まれているか確認する対象物確認工程Step43と、を備えている。 The search step Step 4 is a step of searching whether or not the target object X is included in the selected image. Specifically, the search step Step 4 includes an image reconstruction step Step 41 of dividing the selected image into a plurality of regions α and performing fast Fourier transform (FFT) on each region to create a reconstructed image; The process includes a contour extraction step Step 42 in which the contour β of the object is extracted from the reconstructed image, and an object confirmation step Step 43 in which it is confirmed whether the object X is included in the reconstructed image.

ここで、図2(d)に示した距離15mの撮影画像について本実施形態に係る画像取得方法を適用する場合を想定する。図4は、距離15mの撮影画像の全体を高速フーリエ変換した結果を示す説明図であり、(a)はFFT画像、(b)は輝度分布図、である。図5は、図4(b)に示した輝度分布図を縦方向と横方向に分離した輝度分布図であり、(a)は横方向の輝度分布図、(b)は縦方向の輝度分布図、である。図6は、画像再構成工程を示す説明図であり、(a)は概念図、(b)は標準偏差を用いた再構成画像、である。 Here, it is assumed that the image acquisition method according to this embodiment is applied to the image taken at a distance of 15 m shown in FIG. 2(d). FIG. 4 is an explanatory diagram showing the results of fast Fourier transform of the entire photographed image at a distance of 15 m, where (a) is an FFT image and (b) is a brightness distribution diagram. FIG. 5 is a brightness distribution map obtained by separating the brightness distribution map shown in FIG. 4(b) into vertical and horizontal directions, where (a) is a horizontal brightness distribution map, and (b) is a vertical brightness distribution map. Figure. FIG. 6 is an explanatory diagram showing the image reconstruction process, in which (a) is a conceptual diagram and (b) is a reconstructed image using standard deviation.

画像再構成工程Step41において、高速フーリエ変換(FFT)を行う単位となる領域αの大きさは、撮影画像の全体を高速フーリエ変換(FFT)した結果の波長λに基づいて設定される。この波長λを算出するには、まず、図4(a)に示したように、選択画像の全体を高速フーリエ変換(FFT)する。 In the image reconstruction step Step 41, the size of the area α, which is a unit for fast Fourier transform (FFT), is set based on the wavelength λ of the result of fast Fourier transform (FFT) of the entire captured image. To calculate this wavelength λ, first, as shown in FIG. 4(a), the entire selected image is subjected to fast Fourier transform (FFT).

この画像を輝度分布図で表現すると図4(b)に示したように表示される。図4(b)に示した輝度分布図を縦方向と横方向に分離したものを図5(a)及び図5(b)に表示している。なお、図4(b)~図5(b)において、「縦方向」は選択画像の縦方向を意味し、「横方向」は選択画像の横方向を意味し、「強度」は輝度の強度を意味している。 When this image is expressed in a brightness distribution diagram, it is displayed as shown in FIG. 4(b). The luminance distribution diagram shown in FIG. 4(b) is separated into vertical and horizontal directions and is displayed in FIGS. 5(a) and 5(b). In addition, in FIGS. 4(b) to 5(b), "vertical direction" means the vertical direction of the selected image, "horizontal direction" means the horizontal direction of the selected image, and "intensity" means the intensity of brightness. It means.

図5(a)及び図5(b)に示した縦方向及び横方向の輝度分布の両方を参酌しながら、ピーク値を含む1周期の波長λを決定する。この波長λは、輝度分布のブレ、すなわち、対象物Xのエッジの幅を意味している。なお、波長λは、処理装置5が閾値等の条件に基づいて決定してもよいし、作業者が目視で波長λを決定するようにしてもよい。 The wavelength λ of one period including the peak value is determined while considering both the vertical and horizontal luminance distributions shown in FIGS. 5(a) and 5(b). This wavelength λ means a blur in the luminance distribution, that is, the width of the edge of the object X. Note that the wavelength λ may be determined by the processing device 5 based on conditions such as a threshold value, or may be determined visually by an operator.

本実施形態では、波長λは、例えば、16ドットに決定される。したがって、領域αは16ドット×16ドットの大きさに設定される。このように、波長λを2の累乗に決定することにより、領域αの高速フーリエ変換(FFT)を容易に行うことができる。例えば、領域αの大きさは、8×8であってもよいし、32×32であってもよい。 In this embodiment, the wavelength λ is determined to be, for example, 16 dots. Therefore, the area α is set to a size of 16 dots×16 dots. In this manner, by determining the wavelength λ to be a power of 2, fast Fourier transform (FFT) of the region α can be easily performed. For example, the size of the area α may be 8×8 or 32×32.

図6(a)は、選択画像を仮想的にドットで表示したものである。選択画像のドット数は、例えば、16ビットで1200(縦方向)×1800(横方向)である。なお、図6(a)は1200×1800のドットを簡略化して表示したものである。領域αは、例えば、図6(a)で灰色に塗り潰したように、16ドット(縦方向)×16ドット(横方向)の範囲として表示される。16×16の領域αを高速フーリエ変換(FFT)の一単位として、横方向及び縦方向にスライドさせながら選択画像の全域を高速フーリエ変換(FFT)する。 FIG. 6A shows a selected image virtually displayed as dots. The number of dots in the selected image is, for example, 16 bits, 1200 (vertical direction) x 1800 (horizontal direction). Note that FIG. 6(a) is a simplified display of 1200×1800 dots. The area α is displayed as a range of 16 dots (vertical direction)×16 dots (horizontal direction), for example, as shown filled in gray in FIG. 6(a). The entire area of the selected image is subjected to Fast Fourier Transform (FFT) while sliding in the horizontal and vertical directions, using a 16×16 area α as one unit of Fast Fourier Transform (FFT).

図6(b)に示した再構成画像は、領域αを高速フーリエ変換(FFT)し、領域αをその標準偏差の値に置換したものである。なお、再構成画像は、標準偏差以外の値を用いて作成することもできる。ここで、図7は、画像再構成工程の変形例を示す説明図であり、(a)は第一変形例、(b)は第二変形例、である。図8は、画像再構成工程の変形例を示す説明図であり、(a)は第三変形例、(b)は第四変形例、である。 The reconstructed image shown in FIG. 6(b) is obtained by subjecting the region α to Fast Fourier Transform (FFT) and replacing the region α with the value of its standard deviation. Note that the reconstructed image can also be created using values other than standard deviation. Here, FIG. 7 is an explanatory diagram showing a modification of the image reconstruction process, in which (a) is a first modification and (b) is a second modification. FIG. 8 is an explanatory diagram showing a modification of the image reconstruction process, in which (a) is a third modification and (b) is a fourth modification.

図7(a)に示した第一変形例は、高速フーリエ変換(FFT)の最大値を用いた再構成画像である。また、図7(b)に示した第二変形例は、高速フーリエ変換(FFT)の平均値を用いた再構成画像である。図8(a)に示した第三変形例は、高速フーリエ変換(FFT)の平均値/最大値を用いた再構成画像である。また、図8(b)に示した第四変形例は、高速フーリエ変換(FFT)の一次微分値(差分)を用いた再構成画像である。 The first modified example shown in FIG. 7(a) is a reconstructed image using the maximum value of fast Fourier transform (FFT). Further, the second modified example shown in FIG. 7(b) is a reconstructed image using the average value of fast Fourier transform (FFT). The third modified example shown in FIG. 8(a) is a reconstructed image using the average value/maximum value of fast Fourier transform (FFT). Further, the fourth modified example shown in FIG. 8(b) is a reconstructed image using a first-order differential value (difference) of fast Fourier transform (FFT).

このように、再構成画像は、領域αを高速フーリエ変換(FFT)した結果の標準偏差、最大値、平均値、平均値/最大値又は一次微分値の何れか一つの数値を用いて置換することにより再構成することができる。 In this way, the reconstructed image is replaced using any one of the standard deviation, maximum value, average value, average value/maximum value, or first-order differential value of the result of fast Fourier transform (FFT) of the area α. It can be reconfigured by

輪郭抽出工程Step42は、例えば、再構成画像の輝度の閾値を基準にして画像中に含まれる対象物Xであろう物体の輪郭βを算出する工程である。輪郭抽出方法は、かかる方法に限定されるものではなく、一次微分を用いたエッジ検出であってもよいし、事前に形状を記憶させた対象物Xとのマッチング周波数の違いを用いたエッジ・異物検出であってもよいし、主成分分析を用いたエッジ検出であってもよい。 The contour extraction step Step 42 is, for example, a step of calculating the contour β of an object that may be the object X included in the image, based on the brightness threshold of the reconstructed image. The contour extraction method is not limited to this method, and may be edge detection using first-order differentiation, or edge detection using the difference in matching frequency with the object X whose shape has been memorized in advance. It may be foreign object detection or edge detection using principal component analysis.

ここで、図9は、輪郭抽出工程を示す説明図であり、(a)は標準偏差を用いた再構成画像から対象物の輪郭を抽出した状態の画像、(b)は抽出された輪郭のみを示した画像、である。上述した輪郭抽出方法により、再構成画像に含まれる物体の輪郭βを図9(a)に黒線で示したように抽出することができる。その後、必要に応じて、図9(b)に示したように、物体の輪郭βの形状のみを抽出するようにしてもよい。 Here, FIG. 9 is an explanatory diagram showing the contour extraction process, where (a) is an image in which the contour of the object has been extracted from the reconstructed image using the standard deviation, and (b) is only the extracted contour. This is an image showing. By the contour extraction method described above, the contour β of the object included in the reconstructed image can be extracted as shown by the black line in FIG. 9(a). Thereafter, if necessary, only the shape of the outline β of the object may be extracted as shown in FIG. 9(b).

対象物確認工程Step43は、輪郭抽出工程Step42で抽出された物体の輪郭βが対象物Xであるか否かを確認する工程である。抽出された物体の輪郭βが対象物Xであるか否かは、事前に記憶させておいた対象物Xの輪郭形状とのマッチング率に基づいて判断することができる。かかる確認は、処理装置5で行ってもよいし、作業員の目視で行うようにしてもよい。 The object confirmation step Step 43 is a step of checking whether the contour β of the object extracted in the contour extraction step Step 42 is the object X or not. Whether or not the extracted object contour β is the object X can be determined based on the matching rate with the contour shape of the object X stored in advance. Such confirmation may be performed by the processing device 5, or may be performed visually by an operator.

そして、再作成画像に対象物Xが含まれていると判断された場合(Y)は、抽出工程Step5に移行し、再作成画像に対象物Xが含まれていないと判断された場合(N)は、当該画像を排除し、次の撮影画像に対象物Xが含まれているかを確認するために、画像選択工程Step2に戻ることとなる。 If it is determined that the object X is included in the recreated image (Y), the process moves to step 5 of the extraction process, and if it is determined that the object ), the process returns to the image selection process Step 2 in order to exclude the image and check whether the object X is included in the next photographed image.

抽出工程Step5は、対象物Xが含まれていると判断された探索画像から特徴点を抽出する工程である。具体的には、エッジを抽出するフィルタ(例えば、微分フィルタ等)を用いて対象物Xのエッジを抽出した後、コーナー(角部)の検出を行い、特徴量の指数の大きさに基づいて特徴点を抽出する。 The extraction step Step 5 is a step of extracting feature points from the search image that is determined to include the target object X. Specifically, after extracting the edges of the object X using an edge extraction filter (for example, a differential filter, etc.), corners are detected, and Extract feature points.

なお、特徴点の抽出方法は、上述した方法に限定されるものではなく、例えば、形状特徴量に基づいて特徴点を抽出してもよいし、テクスチャ特徴量に基づいて特徴点を抽出してもよいし、高次局所自己相関特徴に基づいて特徴点を抽出してもよい。 Note that the method for extracting feature points is not limited to the method described above; for example, feature points may be extracted based on shape features, or feature points may be extracted based on texture features. Alternatively, feature points may be extracted based on high-order local autocorrelation features.

積算可否確認工程Step6は、特徴点を抽出した探索画像が最初の一枚目の画像であるか否かを確認する工程である。最初の一枚目である場合(Y)は、積算する画像が存在しないことから、次の特徴点を抽出した探索画像を入手するために、画像選択工程Step2に戻ることとなる。また、最初の一枚目でない場合(N)は、積算する画像が存在していることから、照合工程Step7に移行する。 The integration possibility checking step Step 6 is a step of checking whether the search image from which feature points have been extracted is the first image. If it is the first image (Y), there is no image to be integrated, so the process returns to step 2 of the image selection step in order to obtain a search image from which the next feature point has been extracted. If it is not the first image (N), there is an image to be integrated, so the process moves to step 7 of the matching process.

照合工程Step7は、複数の探索画像から抽出した特徴点を照合して対応関係を決定する工程である。二つの探索画像において、特徴点の指数(ベクトル)の一致度合いから特徴点を照合する。このとき、一方の探索画像において、輝度の強度が強い特徴点から順に照合を行うようにしてもよい。かかる照合工程Step7は、例えば、対象物Xの左上の特徴点同士、対象物Xの右上の特徴点同士、対象物Xの左下の特徴点同士、対象物Xの右下の特徴点同士が対応するように照合する工程である。 The matching step Step 7 is a step of matching feature points extracted from a plurality of search images to determine a correspondence relationship. In the two search images, feature points are compared based on the degree of matching of indexes (vectors) of the feature points. At this time, in one search image, matching may be performed in order of feature points having the highest luminance intensity. In this matching process Step 7, for example, feature points on the upper left of object X correspond to each other, feature points on the upper right of object X correspond to each other, feature points on the lower left of object X correspond to each other, feature points on the lower right of object X correspond to each other. This is the process of verifying that the

積算工程Step8は、特徴点を位置合せして探索画像を積算して積算画像を作成する工程である。照合工程Step7により特徴点の対応関係が把握できていることから、対応する特徴点同士が一致するように位置合わせをして探索画像を積算することができる。かかる処理によって、対象物Xが重なり合うように画像の向きを調整しながら積算することができる。 The integration step Step 8 is a step of aligning the feature points and integrating the search images to create an integrated image. Since the correspondence between the feature points has been grasped in the matching process Step 7, search images can be integrated by aligning the corresponding feature points so that they match. Through such processing, it is possible to integrate the images while adjusting the orientation of the images so that the objects X overlap.

このように、特徴点を一致させて積算画像を作成することにより、光量やコントラストが不足する撮影画像から対象物Xを視認可能な積算画像を取得することができる。また、対象物Xが海中で揺動していたり、水中レーザ視認装置1を搭載した水中機器2がゆっくりと移動又は揺動していたりする場合であっても、対象物Xを視認可能な積算画像を取得することができる。 In this way, by matching the feature points and creating an integrated image, it is possible to obtain an integrated image in which the object X can be visually recognized from a captured image with insufficient light amount or contrast. In addition, even if the object X is swinging in the sea or the underwater equipment 2 equipped with the underwater laser viewing device 1 is moving or swinging slowly, the integration allows the object X to be visually recognized. Image can be obtained.

設定枚数確認工程Step9は、積算した画像枚数が設定枚数に到達したか否かを確認する工程である。設定枚数は任意であるが、例えば、16~32枚程度であってもよい。積算した画像枚数が設定枚数に到達していない場合(N)には、次に積算する画像を入手するために、画像選択工程Step2に戻ることとなる。また、積算した画像枚数が設定枚数に到達した場合(Y)には、先鋭化工程Step10に移行する。 The set number of images confirmation step Step 9 is a step of checking whether the accumulated number of images has reached the set number of images. Although the set number of sheets is arbitrary, it may be, for example, about 16 to 32 sheets. If the accumulated number of images has not reached the set number (N), the process returns to image selection step Step 2 in order to obtain the next image to be accumulated. Further, when the accumulated number of images reaches the set number (Y), the process moves to the sharpening process Step 10.

先鋭化工程Step10は、積算工程Step8により得られた積算画像を鮮鋭化する工程である。具体的には、積算画像をレベル補正やPSF(Point Spread Function)補正等の一般的な手法によって鮮鋭化処理を行う。なお、先鋭化工程Step10は、必要に応じて省略することもできるし、鮮鋭化処理の前にノイズ除去処理を行うようにしてもよい。 The sharpening step Step 10 is a step of sharpening the integrated image obtained in the integrating step Step 8. Specifically, the integrated image is sharpened using general techniques such as level correction and PSF (Point Spread Function) correction. Note that the sharpening step Step 10 can be omitted as necessary, or noise removal processing may be performed before the sharpening processing.

本発明は、上述した実施形態に限定されず、本発明の趣旨を逸脱しない範囲で種々変更が可能であることは勿論である。 It goes without saying that the present invention is not limited to the embodiments described above, and that various changes can be made without departing from the spirit of the present invention.

1 水中レーザ視認装置
2 水中機器
3 レーザ光照射装置
4 撮像装置
5 処理装置
41 シャッタ
Step1 撮影工程
Step2 画像選択工程
Step3 ノイズ除去工程
Step4 探索工程
Step41 画像再構成工程
Step42 輪郭抽出工程
Step43 対象物確認工程
Step5 抽出工程
Step6 積算可否確認工程
Step7 照合工程
Step8 積算工程
Step9 設定枚数確認工程
Step10 先鋭化工程
X 対象物
α 領域
β 輪郭
1 Underwater laser viewing device 2 Underwater equipment 3 Laser light irradiation device 4 Imaging device 5 Processing device 41 Shutter Step 1 Photographing process Step 2 Image selection process Step 3 Noise removal process Step 4 Search process Step 41 Image reconstruction process Step 42 Contour extraction process Step 43 Object confirmation process Step 5 Extraction process Step 6 Integration availability confirmation process Step 7 Verification process Step 8 Integration process Step 9 Set number of sheets confirmation process Step 10 Sharpening process X Object α Area β Contour

Claims (2)

濁水中の対象物に対して離れた位置に配置可能な水中機器に搭載された水中レーザ視認装置であって、
前記対象物に対してパルス状のレーザ光を発振するレーザ光照射装置と、
前記対象物からの反射光に合わせて開閉可能なシャッタを備えた撮像装置と、
前記レーザ光照射装置及び前記撮像装置を制御するとともに前記撮像装置により撮影した複数の撮影画像を保存する処理装置と、を備え、
前記処理装置は、前記撮影画像に前記対象物が含まれるか否か探索し、前記対象物が含まれていると判断された探索画像から特徴点を抽出し、複数の前記探索画像から抽出した前記特徴点を照合して対応関係を決定し、前記特徴点を位置合せして前記探索画像を積算し、前記対象物を含む積算画像を取得するように構成されており、
さらに、前記処理装置は、前記撮影画像を複数の領域に分割して領域ごとに高速フーリエ変換を行って再構成画像を作成し、該再構成画像から物体の輪郭を抽出することによって、前記撮影画像に前記対象物が含まれるか否か探索するように構成され、前記撮影画像の全体を高速フーリエ変換した結果の波長に基づいて前記領域の大きさを設定するように構成されている、
ことを特徴とする水中レーザ視認装置。
An underwater laser visual recognition device mounted on an underwater device that can be placed at a distance from an object in turbid water,
a laser beam irradiation device that oscillates a pulsed laser beam toward the target;
an imaging device equipped with a shutter that can be opened and closed according to the reflected light from the object;
a processing device that controls the laser light irradiation device and the imaging device and stores a plurality of images taken by the imaging device,
The processing device searches for whether or not the target object is included in the photographed image, extracts feature points from the search images determined to include the target object, and extracts feature points from the plurality of search images. It is configured to collate the feature points to determine a correspondence relationship, align the feature points, integrate the search image, and obtain an integrated image including the target object;
Furthermore, the processing device divides the photographed image into a plurality of regions, performs fast Fourier transform on each region to create a reconstructed image, and extracts the outline of the object from the reconstructed image, thereby processing the photographed image. configured to search whether or not the target object is included in the image, and configured to set the size of the area based on the wavelength of the result of fast Fourier transform of the entire captured image;
An underwater laser viewing device characterized by:
前記処理装置は、前記高速フーリエ変換の最大値、平均値、標準偏差、平均値/最大値又は一次微分値の何れか一つの数値を用いて前記再構成画像を作成するように構成されている、請求項1に記載の水中レーザ視認装置。
The processing device is configured to create the reconstructed image using any one of the maximum value, average value, standard deviation, average value/maximum value, or first-order differential value of the fast Fourier transform. , An underwater laser viewing device according to claim 1 .
JP2019135049A 2019-07-23 2019-07-23 Underwater laser viewing device Active JP7372589B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019135049A JP7372589B2 (en) 2019-07-23 2019-07-23 Underwater laser viewing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019135049A JP7372589B2 (en) 2019-07-23 2019-07-23 Underwater laser viewing device

Publications (2)

Publication Number Publication Date
JP2021018193A JP2021018193A (en) 2021-02-15
JP7372589B2 true JP7372589B2 (en) 2023-11-01

Family

ID=74563147

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019135049A Active JP7372589B2 (en) 2019-07-23 2019-07-23 Underwater laser viewing device

Country Status (1)

Country Link
JP (1) JP7372589B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022138111A1 (en) 2020-12-25 2022-06-30 株式会社小糸製作所 Sensor system

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002143121A (en) 2000-11-08 2002-05-21 Hitachi Medical Corp Magnetic resonance imaging equipment
JP2005115548A (en) 2003-10-06 2005-04-28 Nippon Telegr & Teleph Corp <Ntt> Image processor, image processing method, image processing program, and recording medium recorded with it program
JP2008181422A (en) 2007-01-25 2008-08-07 Fujitsu Ten Ltd Image recognition device, image recognition method, vehicle control unit, and vehicle control method
JP2010152819A (en) 2008-12-26 2010-07-08 Fujifilm Corp Image processing device, method and program
US20150319347A1 (en) 2014-05-05 2015-11-05 Raytheon Company Methods and apparatus for imaging in scattering environments
JP2018057828A (en) 2016-10-05 2018-04-12 キヤノン株式会社 Image processing apparatus and image processing method

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0792502B2 (en) * 1993-06-30 1995-10-09 運輸省港湾技術研究所長 Underwater laser viewing device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002143121A (en) 2000-11-08 2002-05-21 Hitachi Medical Corp Magnetic resonance imaging equipment
JP2005115548A (en) 2003-10-06 2005-04-28 Nippon Telegr & Teleph Corp <Ntt> Image processor, image processing method, image processing program, and recording medium recorded with it program
JP2008181422A (en) 2007-01-25 2008-08-07 Fujitsu Ten Ltd Image recognition device, image recognition method, vehicle control unit, and vehicle control method
JP2010152819A (en) 2008-12-26 2010-07-08 Fujifilm Corp Image processing device, method and program
US20150319347A1 (en) 2014-05-05 2015-11-05 Raytheon Company Methods and apparatus for imaging in scattering environments
JP2018057828A (en) 2016-10-05 2018-04-12 キヤノン株式会社 Image processing apparatus and image processing method

Also Published As

Publication number Publication date
JP2021018193A (en) 2021-02-15

Similar Documents

Publication Publication Date Title
Bodenmann et al. Generation of high‐resolution three‐dimensional reconstructions of the seafloor in color using a single camera and structured light
KR101264955B1 (en) Method and system for object reconstruction
CN105654091B (en) Sea-surface target detection method and device
Ouyang et al. Visualization and image enhancement for multistatic underwater laser line scan system using image-based rendering
US20080175434A1 (en) Automatic target recognition system for detection and classification of objects in water
CN103679707A (en) Binocular camera disparity map based road obstacle detection system and method
KR102186733B1 (en) 3D modeling method for undersea topography
CN109447902B (en) Image stitching method, device, storage medium and equipment
CN110335245A (en) Cage netting damage monitoring method and system based on monocular space and time continuous image
CN110288623B (en) Data compression method for unmanned aerial vehicle maritime net cage culture inspection image
CN107133982A (en) Depth map construction method, device and capture apparatus, terminal device
Sinai et al. Mine-Like Objects detection in Side-Scan Sonar images using a shadows-highlights geometrical features space
JP7372589B2 (en) Underwater laser viewing device
US10096113B2 (en) Method for designing a passive single-channel imager capable of estimating depth of field
CN105025219A (en) Image acquisition method
Swirski et al. Stereo from flickering caustics
KR101696089B1 (en) Method and apparatus of finding object with imaging sonar
CN117095178A (en) Water accumulation depth identification method and device, electronic equipment and readable storage medium
Stephan et al. Model based image restoration for underwater images
Yan et al. Water mapping using multispectral airborne LiDAR data
Brahim et al. 3D reconstruction of underwater scenes using image sequences from acoustic camera
CN110942480A (en) Monocular single-frame multispectral three-dimensional imaging method
Kirousis et al. The parallel complexity of the subgraph connectivity problem
EP0785414B1 (en) Method and device for determining a shift between the actual position and the planned position of an aircraft
KR102578312B1 (en) Hologram-based object three-dimensional mesurement device and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220627

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230515

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230712

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230920

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231003

R151 Written notification of patent or utility model registration

Ref document number: 7372589

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151