WO2017175261A1 - Turbidity detection apparatus, turbidity detection method, and submerged inspection apparatus - Google Patents

Turbidity detection apparatus, turbidity detection method, and submerged inspection apparatus Download PDF

Info

Publication number
WO2017175261A1
WO2017175261A1 PCT/JP2016/004654 JP2016004654W WO2017175261A1 WO 2017175261 A1 WO2017175261 A1 WO 2017175261A1 JP 2016004654 W JP2016004654 W JP 2016004654W WO 2017175261 A1 WO2017175261 A1 WO 2017175261A1
Authority
WO
WIPO (PCT)
Prior art keywords
turbidity
region
bright
dark
image
Prior art date
Application number
PCT/JP2016/004654
Other languages
French (fr)
Japanese (ja)
Inventor
武史 島本
信昭 中村
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Priority to JP2017513830A priority Critical patent/JP6145728B1/en
Publication of WO2017175261A1 publication Critical patent/WO2017175261A1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated

Definitions

  • the turbidity detection device includes a measurement member having a dark region and a bright region, a camera that captures the dark region and the bright region of the measurement member through a liquid and generates image data, and an image of the dark region in the image data
  • a turbidity detecting unit for detecting turbidity based on the information and the image information of the bright region.
  • the bright area of the measuring member has a higher brightness than the dark area.
  • the ground unit 200 includes a computer 250 that issues instructions to the underwater inspection apparatus 10, a controller 220 that is operated by a user, and a communication unit 230 that performs communication between the computer 250 and the underwater robot 100.
  • the CPU210 acquires the image image
  • the turbidity detection unit 214 of the CPU 210 calculates the brightness of each of the bright area 170w and the dark area 170b based on the image of the portion 170p of the measurement member 170 included in the acquired image (step S22).
  • the turbidity detection unit 214 obtains a normalized luminance difference Nc that is a value obtained by normalizing the obtained luminance difference between the bright region 170w and the dark region 170b based on (Equation 1) (step S23).
  • the turbidity detecting unit 214 refers to the luminance difference-turbidity correspondence information 218a (see FIG. 7) and calculates the turbidity from the obtained normalized luminance difference Nc (step S24).
  • the distance determining unit 216 refers to the turbidity-distance correspondence information 218b (see FIG. 8), and determines the distance from the obtained turbidity to the inspection object 10P (step S25).
  • the memory 218 holds one luminance difference-turbidity correspondence information 218a.
  • the memory 218 holds a plurality of luminance difference-turbidity correspondence information, and may be used by switching according to the application.
  • the memory 218 may hold two types of luminance difference-turbidity correspondence information 1218a and 2218a, each indicating the relationship between turbidity and the subject distance to the inspection object 10P.
  • the luminance difference-turbidity correspondence information 1218a is used when performing a rough inspection
  • the luminance difference-turbidity correspondence information 2218a is used when performing a precise inspection.
  • the underwater robot 100 is separated from the inspection object 10P and the image of the inspection object 10P is taken, but the clarity of the image is deteriorated, but a wide range that is good at once. Therefore, it is possible to shorten the time for capturing an image of the entire inspection range. Such an inspection is effective when it is desired to first obtain an overview of the entire inspection object 10P.
  • the luminance difference-turbidity correspondence information 2218a is used, the range that can be captured at a time becomes narrower by capturing the image of the inspection target 10P by bringing the underwater robot 100 closer to the inspection target 10P, and the inspection range is reduced.
  • the memory 218 holds two types of brightness difference-turbidity correspondence information 1218a and 2218a according to the use for rough inspection and precise inspection, and switches between them. By using it, it becomes possible to perform a suitable inspection according to the application.
  • the turbidity-distance correspondence information 218b shown in FIG. 8 gives the distance to the subject continuously with respect to the turbidity, but the subject distance information is not limited to this.
  • FIG. 11B shows other turbidity-distance correspondence information 1218b in the first embodiment.
  • the turbidity-distance correspondence information 1218b shown in FIG. 11B gives the distance to the inspection object 10P stepwise based on the turbidity, that is, discretely.
  • the CPU 210 of the computer 250 controls the position of the underwater robot 100 so that the distance from the underwater robot 100 to the inspection object 10P is the calculated distance (step S35).
  • the light irradiated on the measurement member 170 is scattered light from the surroundings, or the inspection object 10P, the waterproof container 118, and the measurement from the illumination device 120.

Abstract

This turbidity detection apparatus is provided with: a measuring member that has a dark area and a bright area; a camera that generates image data by photographing the dark area and the bright area of the measuring member through a liquid; and a turbidity detection unit that detects turbidity on the basis of image information about the dark area in the image data and image information about the bright area in the image data. The bright area of the measuring member has a higher brightness than the dark area. The turbidity detection apparatus can detect the turbidity of a liquid by means of a simple configuration.

Description

濁度検出装置、濁度検出方法及び液中検査装置Turbidity detection device, turbidity detection method, and in-liquid inspection device
 本開示は、液体の濁度を検出する濁度検出装置、濁度検出方法及び液体中の構造物を検査する液中検査装置に関する。 The present disclosure relates to a turbidity detection device that detects turbidity of a liquid, a turbidity detection method, and an in-liquid inspection device that inspects a structure in the liquid.
 特許文献1は、水中カメラで水中構造物を点検する際に高濁度の条件下でも水中構造物の検査対象面を鮮明に撮影することができる水中検査装置を開示する。この水中検査装置は、水中構造物の検査対象面を撮影する水中カメラと、伸縮可能な密閉容器と、清水貯留部から密閉容器の内部に清水を供給する清水供給手段と、装置本体を水中において3次元方向に移動させるための推進機構と、を備える。密閉容器は水中カメラの前部に配置されかつ検査対象面側に第1透光部を有し、カメラ前部側に第2透光部を有する。推進機構により移動時に密閉容器を縮めるとともに、撮影時に伸ばす。水中カメラは、密閉容器の伸縮により第1透光部が検査対象面に接触ないし接近した状態となって清水貯留部からの清水で満たされた密閉容器を通して検査対象面を撮影する。この水中検査装置によれば、水中カメラの前部に配置された密閉容器の伸縮により第1透光部が水中構造物の検査対象面に接触ないし接近した状態で、水中カメラが清水貯留部からの清水で満たされた密閉容器を通して検査対象面を撮影するので、高濁度の条件下でも検査対象面を鮮明に撮影することができる。 Patent Document 1 discloses an underwater inspection apparatus capable of clearly photographing an inspection target surface of an underwater structure even under high turbidity conditions when inspecting the underwater structure with an underwater camera. This underwater inspection apparatus includes an underwater camera for photographing a surface to be inspected of an underwater structure, a telescopic airtight container, fresh water supply means for supplying fresh water from a fresh water reservoir to the inside of the airtight container, and the apparatus main body in water A propulsion mechanism for moving in a three-dimensional direction. The sealed container is disposed at the front part of the underwater camera and has a first light transmitting part on the inspection target surface side and a second light transmitting part on the camera front part side. The propelling mechanism shrinks the sealed container during movement and extends it during shooting. The underwater camera takes a picture of the inspection target surface through the closed container filled with fresh water from the fresh water storage part with the first translucent part being in contact with or close to the inspection target surface due to expansion and contraction of the closed container. According to this underwater inspection apparatus, the underwater camera is moved from the fresh water storage portion in a state where the first light transmitting portion is in contact with or close to the inspection target surface of the underwater structure by expansion and contraction of the sealed container disposed in front of the underwater camera. Since the surface to be inspected is photographed through a sealed container filled with clean water, the surface to be inspected can be clearly photographed even under high turbidity conditions.
 特許文献1に記載されるように、水中での構造物(ダムや橋梁等)の画像を撮影する際に水の濁度は撮影画像の画質に影響を与える要因の1つである。特許文献2は水の濁り具合を検出する方法を開示している、特許文献2では、水中で撮影された画像の輝度分布(ヒストグラム)を計測し、輝度分布に基づき水の濁り具合を判断している。 As described in Patent Document 1, when photographing an image of a structure (dam, bridge, etc.) in water, the turbidity of water is one of the factors affecting the image quality of the photographed image. Patent Document 2 discloses a method for detecting the turbidity of water. In Patent Document 2, the luminance distribution (histogram) of an image taken in water is measured, and the turbidity of water is determined based on the luminance distribution. ing.
特開2015-214335号公報Japanese Patent Laying-Open No. 2015-214335 特開昭62-241513号公報JP-A-62-241513
 濁度検出装置は、暗領域と明領域とを有する測定部材と、測定部材の暗領域と明領域とを液体を通して撮影して画像データを生成するカメラと、その画像データでの暗領域の画像情報と明領域の画像情報とに基づき濁度を検出する濁度検出部とを備える。測定部材の明領域は暗領域より明度が高い。 The turbidity detection device includes a measurement member having a dark region and a bright region, a camera that captures the dark region and the bright region of the measurement member through a liquid and generates image data, and an image of the dark region in the image data A turbidity detecting unit for detecting turbidity based on the information and the image information of the bright region. The bright area of the measuring member has a higher brightness than the dark area.
 この濁度検出装置は、簡易な構成で液体の濁度を検出することができる。 This turbidity detection device can detect the turbidity of a liquid with a simple configuration.
図1は実施の形態1における水中検査装置のブロック図である。FIG. 1 is a block diagram of the underwater inspection apparatus in the first embodiment. 図2は実施の形態1における濁度検出装置のブロック図である。FIG. 2 is a block diagram of the turbidity detection apparatus in the first embodiment. 図3は実施の形態1における水中検査装置の水中ロボットの外観図である。FIG. 3 is an external view of the underwater robot of the underwater inspection apparatus in the first embodiment. 図4Aは実施の形態1における水中検査装置の測定部材を示す図である。FIG. 4A is a diagram showing a measurement member of the underwater inspection apparatus in the first embodiment. 図4Bは実施の形態1における水中検査装置の測定部材の取り付け状態を説明するための図である。FIG. 4B is a diagram for explaining an attachment state of the measurement member of the underwater inspection apparatus in the first embodiment. 図5Aは実施の形態1における水中検査装置の操縦用カメラにより撮影される測定部材の状態を説明した図である。FIG. 5A is a diagram illustrating the state of the measurement member photographed by the steering camera of the underwater inspection apparatus in the first embodiment. 図5Bは実施の形態1における測定部材の画像を示す図である。FIG. 5B is a diagram showing an image of the measurement member in the first embodiment. 図5Cは実施の形態1における測定部材の画像を示す図である。FIG. 5C is a diagram showing an image of the measurement member in the first embodiment. 図6Aは実施の形態1における測定部材の画像を示す図である。FIG. 6A is a diagram showing an image of a measurement member in the first embodiment. 図6Bは実施の形態1における測定部材の画像を示す図である。FIG. 6B is a diagram showing an image of the measurement member in the first embodiment. 図6Cは実施の形態1における測定部材の画像を示す図である。FIG. 6C is a diagram showing an image of the measurement member in the first embodiment. 図7は実施の形態1における水の濁度と、測定部材の画像から得た輝度差との関係を示した図である。FIG. 7 is a diagram showing the relationship between the turbidity of water and the luminance difference obtained from the image of the measurement member in the first embodiment. 図8は実施の形態1における水中検査装置が検出した濁度と、検査対象物までの距離との関係を示した図である。FIG. 8 is a diagram showing the relationship between the turbidity detected by the underwater inspection apparatus in Embodiment 1 and the distance to the inspection object. 図9は実施の形態1における水中検査装置の、水の濁度に基づき検査対象物までの距離を制御する処理を示すフローチャートである。FIG. 9 is a flowchart showing a process of controlling the distance to the inspection object based on the turbidity of water in the underwater inspection apparatus in the first embodiment. 図10Aは実施の形態1における水中検査装置の検査用カメラが撮影した画像を示す図である。FIG. 10A is a diagram showing an image taken by the inspection camera of the underwater inspection apparatus in the first embodiment. 図10Bは実施の形態1における水中検査装置の検査用カメラが撮影した画像を示す図である。FIG. 10B is a diagram showing an image taken by the inspection camera of the underwater inspection apparatus in the first embodiment. 図11Aは実施の形態1における水中検査装置の検出された濁度と検査対象物までの距離との間の関係を示した図である。FIG. 11A is a diagram showing a relationship between the detected turbidity of the underwater inspection apparatus in Embodiment 1 and the distance to the inspection object. 図11Bは実施の形態1における水中検査装置の濁度-被写体距離関係情報を説明した図である。FIG. 11B is a diagram for explaining turbidity-subject distance relationship information of the underwater inspection apparatus in the first embodiment. 図12Aは、実施の形態2における水中検査装置の測定部材の画像から得た輝度差と検査対象物までの距離との関係を示した図である。FIG. 12A is a diagram illustrating a relationship between a luminance difference obtained from an image of a measurement member of the underwater inspection apparatus according to Embodiment 2 and a distance to an inspection object. 図12Bは、実施の形態2における水中検査装置のメモリに格納される対応情報を説明した図である。FIG. 12B is a diagram illustrating correspondence information stored in the memory of the underwater inspection device according to Embodiment 2. 図13は実施の形態2における水中検査装置の、測定部材の画像から得た輝度差に基づき、検査対象物までの距離を制御する処理を示すフローチャートである。FIG. 13 is a flowchart showing processing for controlling the distance to the inspection object based on the luminance difference obtained from the image of the measurement member in the underwater inspection apparatus according to the second embodiment. 図14Aは、実施の形態2における水中検査装置の測定部材の画像から得た輝度差と、検査対象物までの距離との関係を示す図である。FIG. 14A is a diagram showing a relationship between a luminance difference obtained from an image of a measurement member of the underwater inspection apparatus in Embodiment 2 and a distance to an inspection object. 図14Bは、実施の形態2における水中検査装置の測定部材の画像から得た輝度差と、検査対象物までの距離との関係を示した図である。FIG. 14B is a diagram showing the relationship between the luminance difference obtained from the image of the measurement member of the underwater inspection apparatus in Embodiment 2 and the distance to the inspection object. 図15Aは実施の形態3における水中検査装置の測定部材を説明した図である。FIG. 15A is a diagram illustrating a measurement member of the underwater inspection apparatus according to Embodiment 3. 図15Bは実施の形態3における水中検査装置の測定部材を説明した図である。FIG. 15B is a diagram for explaining a measurement member of the underwater inspection apparatus according to Embodiment 3. 図16Aは実施の形態3における水中検査装置の水の濁度と、測定部材の画像から得た解像度との関係を示した図である。FIG. 16A is a diagram showing the relationship between the turbidity of water in the underwater inspection apparatus in Embodiment 3 and the resolution obtained from the image of the measurement member. 図16Bは実施の形態3における水中検査装置のメモリに格納される対応情報を説明した図である。FIG. 16B is a diagram illustrating correspondence information stored in the memory of the underwater inspection apparatus in the third embodiment. 図17は実施の形態3における水中検査装置の、測定部材の画像の解像度に基づき検査対象物までの距離を制御する処理を示すフローチャートである。FIG. 17 is a flowchart showing processing for controlling the distance to the inspection object based on the resolution of the image of the measurement member in the underwater inspection apparatus according to the third embodiment. 図18は実施の形態4における水中検査装置の断面図である。FIG. 18 is a cross-sectional view of the underwater inspection apparatus in the fourth embodiment.
 以下、適宜図面を参照しながら、実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。 Hereinafter, embodiments will be described in detail with reference to the drawings as appropriate. However, more detailed description than necessary may be omitted. For example, detailed descriptions of already well-known matters and repeated descriptions for substantially the same configuration may be omitted. This is to avoid the following description from becoming unnecessarily redundant and to facilitate understanding by those skilled in the art.
 なお、本明細書は、当業者が本開示を十分に理解するために添付図面および以下の説明を提供するのであって、これらによって請求の範囲に記載の主題を限定することを意図するものではない。 It is to be noted that this specification provides the accompanying drawings and the following description for those skilled in the art to fully understand the present disclosure, and is not intended to limit the claimed subject matter. Absent.
 (実施の形態1)
 [1-1.構成]
 図1は、実施の形態1における濁度検出装置を搭載した水中検査装置10(液中検査装置の一例)のブロック図である。水中検査装置10は、ダムや橋梁等の構造物の水没した部分、例えば、ダムの壁面、橋桁を検査するため、水の中にある構造物の表面の画像を撮影する。水中検査装置10は、液体である水の中を移動しながら水の中にある構造物の画像を撮影する水中ロボット(Remotely Operated Vehicle:ROV)100(液中ロボットの一例)と、水中ロボット100の動作を地上でコントロールする地上ユニット200とを備える。水中ロボット100と地上ユニット200とは、例えば、電気信号を通すための通信ケーブル300で接続されている。操作者は、水中ロボット100から送られてくる操縦用の画像を見ながら、コントローラ220を操作して、水中ロボット100を操縦する。以下、水中ロボット100と地上ユニット200のそれぞれの具体的な構成を説明する。
(Embodiment 1)
[1-1. Constitution]
FIG. 1 is a block diagram of an underwater inspection apparatus 10 (an example of an in-liquid inspection apparatus) equipped with the turbidity detection apparatus according to the first embodiment. The underwater inspection apparatus 10 takes an image of the surface of a structure in water in order to inspect a submerged portion of a structure such as a dam or a bridge, for example, a wall surface of a dam or a bridge girder. The underwater inspection apparatus 10 includes an underwater robot (Removal Operated Vehicle: ROV) 100 (an example of a submerged robot) that captures an image of a structure in water while moving in liquid water. And a ground unit 200 for controlling the operation of the above on the ground. For example, the underwater robot 100 and the ground unit 200 are connected by a communication cable 300 for passing an electrical signal. The operator manipulates the underwater robot 100 by operating the controller 220 while viewing the maneuvering image sent from the underwater robot 100. Hereinafter, specific configurations of the underwater robot 100 and the ground unit 200 will be described.
 [1-1-1.地上ユニット]
 地上ユニット200は、水中検査装置10に指示を出すコンピュータ250と、ユーザが操作を行うコントローラ220と、コンピュータ250と水中ロボット100との通信を行うための通信ユニット230とを含む。
[1-1-1. Ground unit]
The ground unit 200 includes a computer 250 that issues instructions to the underwater inspection apparatus 10, a controller 220 that is operated by a user, and a communication unit 230 that performs communication between the computer 250 and the underwater robot 100.
 水中ロボット100と地上ユニット200とは通信ケーブル300で接続されている。通信ケーブル300は例えば電気信号を通すための電線である。通信ユニット230は、コンピュータ250からのデータを電気信号を通すための電線での通信に適した所定の通信プロトコル(例えばPLC)に変換するユニットであり、水中ロボット100とコンピュータ250間の通信を実現する。 The underwater robot 100 and the ground unit 200 are connected by a communication cable 300. The communication cable 300 is an electric wire for passing an electric signal, for example. The communication unit 230 is a unit that converts data from the computer 250 into a predetermined communication protocol (for example, PLC) suitable for communication via electric wires for passing electrical signals, and realizes communication between the underwater robot 100 and the computer 250. To do.
 コンピュータ250は、表示部211と、通信インタフェース部212と、CPU210と、メモリ218とを含む。 The computer 250 includes a display unit 211, a communication interface unit 212, a CPU 210, and a memory 218.
 表示部211は液晶ディスプレイや有機ELディスプレイで構成される。表示部211は、水中ロボット100から送信されてくる動画である操縦用画像を表示する。通信インタフェース部212は、LAN規格等の所定の規格に従って通信を行う。 The display unit 211 includes a liquid crystal display or an organic EL display. The display unit 211 displays an operation image that is a moving image transmitted from the underwater robot 100. The communication interface unit 212 performs communication according to a predetermined standard such as a LAN standard.
 CPU210はプログラムを実行することで種々の機能を実現する。例えば、CPU210は、プログラムを実行することで、濁度検出部214及び距離決定部216の機能を実現する。CPU210は、通信インタフェース部212を介して水の中で撮影された動画である操縦用画像を水中ロボット100から取得する。 The CPU 210 implements various functions by executing programs. For example, the CPU 210 implements the functions of the turbidity detection unit 214 and the distance determination unit 216 by executing a program. The CPU 210 acquires from the underwater robot 100 an operation image that is a moving image taken in water via the communication interface unit 212.
 メモリ218はフラッシュメモリ等の不揮発性のメモリであって、図1に示すように、濁度及び検査対象物までの距離を決定するために必要な情報218a、218bを記憶している。 The memory 218 is a non-volatile memory such as a flash memory, and stores information 218a and 218b necessary for determining the turbidity and the distance to the inspection object, as shown in FIG.
 操縦者は、コントローラ220により、水中ロボット100を操縦するための指示を水中ロボット100に伝える。コントローラ220は、操作ホイル、操作スティック、スイッチ等を含む。操縦者は、表示部211に表示された操縦用画像を見ながらコントローラ220を操作することにより水中ロボット100を操縦する。 The pilot transmits an instruction for operating the underwater robot 100 to the underwater robot 100 using the controller 220. The controller 220 includes an operation foil, an operation stick, a switch, and the like. The pilot operates the underwater robot 100 by operating the controller 220 while viewing the control image displayed on the display unit 211.
 図2は実施の形態1における濁度検出装置10Aのブロック図である。濁度検出装置10Aは、図1に示す水中検査装置10のうちの(操縦用)カメラ116と、測定部材170と、バッテリ160と、照明装置120と、濁度検出部214と、メモリ218とを備える。実施の形態1では、測定部材170は板形状を有する。 FIG. 2 is a block diagram of the turbidity detection device 10A in the first embodiment. The turbidity detection device 10A includes a (steering) camera 116, a measurement member 170, a battery 160, a lighting device 120, a turbidity detection unit 214, and a memory 218 in the underwater inspection device 10 illustrated in FIG. Is provided. In Embodiment 1, the measurement member 170 has a plate shape.
 [1-1-2.水中ロボット]
 図3は、水中検査装置10の水中ロボット100の外観図である。水中ロボット100は地上ユニット200からの命令にしたがい移動や画像の撮影を行う。水中ロボット100は、地上ユニット200に対して通信ケーブル300を介して操縦用の画像を送信する。図1および図3を用いて水中ロボット100の構成を説明する。水中ロボット100は、本体ユニット110と、照明装置120と、スラスタ130と、ソナー140と、検査用カメラ150と、バッテリ160と、測定部材170とを備える。水中ロボット100は、上記の構成部材は取り付けられるフレーム105をさらに有する。
[1-1-2. Underwater robot]
FIG. 3 is an external view of the underwater robot 100 of the underwater inspection apparatus 10. The underwater robot 100 moves and takes an image in accordance with a command from the ground unit 200. The underwater robot 100 transmits a maneuvering image to the ground unit 200 via the communication cable 300. The configuration of the underwater robot 100 will be described with reference to FIGS. 1 and 3. The underwater robot 100 includes a main unit 110, a lighting device 120, a thruster 130, a sonar 140, an inspection camera 150, a battery 160, and a measurement member 170. The underwater robot 100 further includes a frame 105 to which the above constituent members are attached.
 本体ユニット110は、地上ユニット200と通信を行うための通信ユニット112と、水中ロボット100の動作を制御する制御ユニット114と、操縦者のための画像を撮影する操縦用カメラ116とを含む。本体ユニット110は防水性を有した防水容器118内に収容されている。制御ユニット114はCPUを含み、所定のプログラムを実行することで所定の機能を実行する。操縦用カメラ116は、地上の操縦者が、水中ロボット100の位置や水の中の状態を確認するための動画または静止画等の画像を撮影する。操縦用カメラ116で撮影された画像は通信ユニット112を介して地上ユニット200に送信される。通信ユニット112はTCP/IP等の所定の通信規格にしたがい地上ユニット200と通信する。 The main unit 110 includes a communication unit 112 for communicating with the ground unit 200, a control unit 114 for controlling the operation of the underwater robot 100, and a control camera 116 for capturing an image for the operator. The main unit 110 is accommodated in a waterproof container 118 having a waterproof property. The control unit 114 includes a CPU, and executes a predetermined function by executing a predetermined program. The steering camera 116 shoots an image such as a moving image or a still image for a pilot on the ground to check the position of the underwater robot 100 and the state in the water. An image taken by the steering camera 116 is transmitted to the ground unit 200 via the communication unit 112. The communication unit 112 communicates with the ground unit 200 according to a predetermined communication standard such as TCP / IP.
 照明装置120は、画像を撮影するため検査対象物に光を照射し、LED素子等の光源と光学系を含む。スラスタ130は水中ロボット100の推進力を与える推進器であり、例えばスクリューとモータを含む。水中ロボット100を三次元的に移動させることを可能にするため、複数のスラスタ130が3軸の方向に取り付けられている。ソナー140は音波を用いて水中ロボット100から水の中にあるダムの壁面等の物体までの距離を測定する。バッテリ160は充電可能な電池であり、水中ロボット100を駆動するための電源を供給する。 The illumination device 120 irradiates the inspection object with light to take an image, and includes a light source such as an LED element and an optical system. The thruster 130 is a propulsion device that provides the propulsive force of the underwater robot 100 and includes, for example, a screw and a motor. In order to allow the underwater robot 100 to move three-dimensionally, a plurality of thrusters 130 are attached in the directions of three axes. The sonar 140 uses sound waves to measure the distance from the underwater robot 100 to an object such as a wall of a dam in the water. The battery 160 is a rechargeable battery, and supplies power for driving the underwater robot 100.
 検査用カメラ150は水の中にある検査対象物の画像を撮影し、撮影により生成された動画データまたは静止画データの画像データを内部の記録媒体(例えば、メモリカード)に記録する。検査用カメラ150は、検査用の画像を撮影するために操縦用カメラ116よりも高精細の画像(例えば、4K画像)を撮影できる。 The inspection camera 150 captures an image of the inspection object in the water, and records image data of moving image data or still image data generated by the imaging on an internal recording medium (for example, a memory card). The inspection camera 150 can capture a higher-definition image (for example, a 4K image) than the steering camera 116 in order to capture an inspection image.
 なお、水中ロボット100は図3に示すように上下方向と左右方向と前後方向を有している。操縦用カメラ116及び検査用カメラ150により画像が撮影される検査対象物の方向を前方向とし、検査用カメラ150から操縦用カメラ116に向く方向を上方向とする。水中ロボット100は検査対象物に対して正対した状態すなわちカメラ116、150の光軸が検査対象物の撮影する表面と略直交する状態で上下方向と左右方向に平行移動しながら、検査対象物の表面の画像を撮影する。 The underwater robot 100 has a vertical direction, a horizontal direction, and a front-back direction as shown in FIG. The direction of the inspection object whose image is captured by the steering camera 116 and the inspection camera 150 is defined as the forward direction, and the direction from the inspection camera 150 toward the steering camera 116 is defined as the upward direction. The underwater robot 100 translates vertically and horizontally while facing the inspection object, that is, with the optical axes of the cameras 116 and 150 being substantially orthogonal to the surface of the inspection object to be imaged. Take a picture of the surface.
 水中ロボット100は測定部材170をさらに備えている。図4Aは測定部材170を示す。測定部材170は暗領域170bと、暗領域より明度の高い明領域170wとを有する。暗領域170bと明領域170wとは測定部材170の面170kに設けられている。実施の形態1では、暗領域170bと明領域170wとの色相は同じであり、暗領域170bは黒く、明領域170wは白い。 The underwater robot 100 further includes a measurement member 170. FIG. 4A shows the measurement member 170. The measuring member 170 has a dark region 170b and a bright region 170w having a higher brightness than the dark region. The dark area 170b and the bright area 170w are provided on the surface 170k of the measuring member 170. In the first embodiment, the hues of the dark region 170b and the bright region 170w are the same, the dark region 170b is black, and the bright region 170w is white.
 図4Bは、測定部材170の取り付け状態を説明した図である。測定部材170は支持部材180により支持されて防水容器118の上部に固定されている。特に、測定部材170は、照明装置120と操縦用カメラ116との間で暗領域170bと明領域170wとが設けられた面170kが鉛直方向の下方を向きかつカメラ116を向くように配置される。すなわち、測定部材170の暗領域170bと明領域170wとが設けられた面170kは、水中ロボット100が、その上下方向と鉛直方向とが一致する姿勢をとっている場合に、鉛直方向と、鉛直方向に垂直な水平方向との間の方向に広がっている。このように測定部材170を配置することで、上部から入射する太陽光LL1は照明装置120及び測定部材170により遮られ、操縦用カメラ116に到達しない。このため、水深が浅いときに、測定部材170に対して太陽光LL1が入射することを排除できる。また、照明装置120からの照明光LL2は測定部材170により遮られ、操縦用カメラ116に到達しないため、水深が深い時の、測定部材170に対する照明光LL2の影響を排除できる。測定部材170に照射される光は、周辺からの散乱光、または、照明装置120から検査対象物10P、防水容器118および測定部材170を含む経路を通過した反射光となる。このため、測定部材170の明領域170wが飽和せず安定に明領域170wと暗領域170bとのコントラストが検出できる。 FIG. 4B is a diagram illustrating an attachment state of the measurement member 170. The measurement member 170 is supported by the support member 180 and fixed to the upper part of the waterproof container 118. In particular, the measurement member 170 is disposed between the illumination device 120 and the steering camera 116 such that a surface 170k provided with a dark region 170b and a bright region 170w faces downward in the vertical direction and faces the camera 116. . In other words, the surface 170k provided with the dark region 170b and the bright region 170w of the measuring member 170 has a vertical direction and a vertical direction when the underwater robot 100 has a posture in which the vertical direction coincides with the vertical direction. It spreads in the direction between the horizontal direction perpendicular to the direction. By arranging the measurement member 170 in this way, the sunlight LL1 incident from above is blocked by the lighting device 120 and the measurement member 170 and does not reach the steering camera 116. For this reason, when the water depth is shallow, it can exclude that sunlight LL1 injects with respect to the measurement member 170. FIG. Further, since the illumination light LL2 from the illumination device 120 is blocked by the measurement member 170 and does not reach the control camera 116, the influence of the illumination light LL2 on the measurement member 170 when the water depth is deep can be eliminated. The light irradiated to the measurement member 170 becomes scattered light from the surroundings or reflected light that has passed through the path including the inspection target 10 </ b> P, the waterproof container 118, and the measurement member 170 from the illumination device 120. For this reason, the bright region 170w of the measuring member 170 is not saturated and the contrast between the bright region 170w and the dark region 170b can be detected stably.
 また、図4Bは操縦用カメラ116の画角Xすなわち撮影範囲R1を示している。図5Aは、操縦用カメラ116から見たときの操縦用カメラ116の画角X(撮影範囲R1)を示す。図5Aに示すように、操縦用カメラ116により撮影される画像は測定部材170の下側の部分170pのみを含むように、測定部材170と操縦用カメラ116の位置関係が規定される(図4B参照)。図5Bは、操縦用カメラ116により撮影される画像を示す。操縦用カメラ116により撮影される画像P1の上部中央において、測定部材170の一部である下側の部分170p)が画像P1に含まれている。なお、操縦においては測定部材170の画像は必要ないので、操縦者に対して提示(表示)される画像は、操縦用カメラ116により撮影された画像(図5B参照)から測定部材170が除去された画像であってもよい。 FIG. 4B shows the angle of view X of the control camera 116, that is, the shooting range R1. FIG. 5A shows the angle of view X (shooting range R1) of the steering camera 116 when viewed from the steering camera 116. FIG. As shown in FIG. 5A, the positional relationship between the measurement member 170 and the steering camera 116 is defined so that the image captured by the steering camera 116 includes only the lower portion 170p of the measurement member 170 (FIG. 4B). reference). FIG. 5B shows an image taken by the steering camera 116. In the upper center of the image P1 photographed by the steering camera 116, a lower portion 170p) which is a part of the measuring member 170 is included in the image P1. Note that since the image of the measurement member 170 is not necessary for the operation, the measurement member 170 is removed from the image (see FIG. 5B) taken by the operation camera 116 as the image presented (displayed) to the operator. It may be an image.
 図5Cは、図5Bに示す領域R2を拡大して示す。特に、コンピュータ250は、操縦用カメラ116により撮影された画像中に映り込んだ測定部材170の暗領域170bの一部の領域R11および明領域170wの一部の領域R12の輝度を抽出して濁度を求める。このように、撮影された画像中に映り込んだ測定部材170の暗領域170b及び明領域170wの一部の領域R11、R12の情報を用いて濁度を検出することで、測定部材170や操縦用カメラ116の取り付け位置においてバラツキがあった場合でも、精度よく暗領域170b及び明領域170wの情報を抽出することが可能となる。具体的には、コンピュータ250の濁度検出部214は、暗領域170b及び明領域170wそれぞれの一部の領域R11、R12内の輝度の平均値を暗領域170bの輝度及び明領域170wの輝度の値とする。濁度検出部214は、暗領域170bの輝度と明領域170wの輝度の差を求め、輝度の差に基づき濁度を算出する(詳細は後述)。 FIG. 5C shows an enlarged region R2 shown in FIG. 5B. In particular, the computer 250 extracts the luminance of a partial region R11 of the dark region 170b and a partial region R12 of the bright region 170w of the measurement member 170 reflected in the image captured by the control camera 116, and becomes turbid. Find the degree. As described above, the turbidity is detected using the information of the dark areas 170b and the partial areas R11 and R12 of the bright area 170w of the measurement member 170 reflected in the captured image. Even when there is a variation in the attachment position of the camera 116, it is possible to accurately extract information on the dark area 170b and the bright area 170w. Specifically, the turbidity detection unit 214 of the computer 250 calculates an average value of the luminance in the partial areas R11 and R12 of the dark area 170b and the bright area 170w, as the luminance of the dark area 170b and the luminance of the bright area 170w. Value. The turbidity detection unit 214 calculates the difference between the luminance of the dark region 170b and the luminance of the bright region 170w, and calculates turbidity based on the luminance difference (details will be described later).
 なお、測定部材170は板形状に限らず、暗領域170bと明領域170wとを有する限り、柱形状等の他の形状を有していてもよい。 Note that the measurement member 170 is not limited to a plate shape, and may have other shapes such as a column shape as long as it has a dark region 170b and a bright region 170w.
 [1-2.動作]
 以上のように構成された水中検査装置10について、その動作を以下説明する。
[1-2. Operation]
The operation of the underwater inspection apparatus 10 configured as described above will be described below.
 水中検査装置10は、水の中にある検査対象物10P(図4B)の表面の画像を撮影する。その際、検査対象物10Pから所定距離だけ離れた位置から画像を撮影する。この所定距離が遠いほど、より広い範囲を撮影でき、効率よく検査対象物10Pを検査できる。しかしながら、水の濁度が高いと、距離が遠い場合、明瞭な撮影画像が得られなくなる。このため、明瞭な画像が得られるように水の濁度に応じて距離を設定する。したがって、実施の形態1における水中検査装置10は、水の濁度を検出し、検出した濁度に応じて検査対象物10Pまでの距離を決定する。最初に、水中検査装置10における水の濁度を検出する動作について説明する。 The underwater inspection apparatus 10 takes an image of the surface of the inspection object 10P (FIG. 4B) in the water. At that time, an image is taken from a position away from the inspection object 10P by a predetermined distance. The farther the predetermined distance is, the wider range can be photographed, and the inspection object 10P can be inspected efficiently. However, if the turbidity of water is high, a clear captured image cannot be obtained if the distance is long. Therefore, the distance is set according to the turbidity of water so that a clear image can be obtained. Therefore, the underwater inspection apparatus 10 in Embodiment 1 detects the turbidity of water and determines the distance to the inspection object 10P according to the detected turbidity. First, the operation of detecting the turbidity of water in the underwater inspection apparatus 10 will be described.
 [1-2-1.濁度検出動作]
 図6Aから図6Cは、液体である水の濁度と、測定部材170を撮像した画像における輝度差(コントラスト)との関係を示す。なお、図6Aから図6Cでは、説明の便宜上、撮像画像全体における一部の領域R2の画像のみを示している。図6Aは濁度が比較的低い場合の、測定部材の部分170pの撮影画像を示す。図6Cは濁度が比較的高い場合の測定部材170の部分170pの撮影画像を示す。図6Bは、濁度が図6Aに示す場合と図6Cに示す場合の中間である場合の測定部材170の部分170pの撮影画像を示す。図6Aから図6Cに示すように、水の濁度が低いほど、測定部材170の部分170pの暗領域170bの輝度と明領域170wの輝度の差(コントラスト)は大きくなり、水中の濁度が高いほど、輝度の差は小さくなる。このように、暗領域170bと明領域170wの輝度の差(コントラスト)と濁度との間の相関性に基づき、輝度の差から濁度を検出する。
[1-2-1. Turbidity detection operation]
6A to 6C show the relationship between the turbidity of water, which is a liquid, and the luminance difference (contrast) in an image obtained by imaging the measurement member 170. FIG. 6A to 6C show only an image of a partial region R2 in the entire captured image for convenience of explanation. FIG. 6A shows a captured image of the measurement member portion 170p when the turbidity is relatively low. FIG. 6C shows a captured image of the portion 170p of the measurement member 170 when the turbidity is relatively high. FIG. 6B shows a captured image of the portion 170p of the measurement member 170 when the turbidity is intermediate between the case shown in FIG. 6A and the case shown in FIG. 6C. As shown in FIGS. 6A to 6C, the lower the turbidity of water, the greater the difference (contrast) between the luminance of the dark area 170b and the luminance of the bright area 170w of the portion 170p of the measuring member 170, and the turbidity in water is higher. The higher the difference, the smaller the difference in brightness. Thus, turbidity is detected from the difference in luminance based on the correlation between the luminance difference (contrast) between the dark region 170b and the bright region 170w and turbidity.
 図7は、水の濁度と、測定部材170の撮影画像から得た輝度の差である正規化輝度差との関係を示す。この関係は実際に測定した値から求められる。ここで、正規化輝度差Ncは、測定部材170の撮影画像の暗領域170bの輝度Ibと、明領域170wの輝度Iwと、補正係数A、B、Cとにより数1で表される。 FIG. 7 shows the relationship between the turbidity of water and the normalized luminance difference that is the difference in luminance obtained from the captured image of the measuring member 170. This relationship can be obtained from actually measured values. Here, the normalized luminance difference Nc is expressed by Equation 1 using the luminance Ib of the dark region 170b of the captured image of the measurement member 170, the luminance Iw of the bright region 170w, and the correction coefficients A, B, and C.
Figure JPOXMLDOC01-appb-M000001
Figure JPOXMLDOC01-appb-M000001
 図7に示すように、濁度が高くなるほど、輝度差(正規化輝度差Nc)は小さくなる。図7に示すような濁度と正規化輝度差Ncとの関係を示す輝度差-濁度対応情報218aが事前に求められて、地上ユニット200のコンピュータ250のメモリ218に格納されている。輝度差-濁度対応情報218aは例えばテーブルまたは関数で与えられる。 As shown in FIG. 7, the higher the turbidity, the smaller the luminance difference (normalized luminance difference Nc). Luminance difference-turbidity correspondence information 218a indicating the relationship between turbidity and normalized luminance difference Nc as shown in FIG. 7 is obtained in advance and stored in the memory 218 of the computer 250 of the ground unit 200. The luminance difference-turbidity correspondence information 218a is given as a table or a function, for example.
 さらに、地上ユニット200のコンピュータ250において、検出された濁度と、検査対象物10Pまでの距離との関係を示した濁度-距離対応情報218bがメモリ218に格納されている。図8は、検出された濁度と、検査対象物10Pまでの距離との関係を示した濁度-距離対応情報218bを示す。メモリ218は、図8に示す関係を与えるテーブルまたは関数を濁度-距離対応情報218bとして格納する。 Furthermore, in the computer 250 of the ground unit 200, turbidity-distance correspondence information 218b indicating the relationship between the detected turbidity and the distance to the inspection object 10P is stored in the memory 218. FIG. 8 shows turbidity-distance correspondence information 218b showing the relationship between the detected turbidity and the distance to the inspection object 10P. The memory 218 stores a table or function giving the relationship shown in FIG. 8 as turbidity-distance correspondence information 218b.
 コンピュータ250は、輝度差-濁度対応情報218aを参照することにより、輝度差(正規化輝度差Nc)に基づいて濁度を求めることができ、濁度-距離対応情報218bを参照することにより、濁度に基づいて水中ロボット100から検査対象物10Pまでの距離を決定することができる。 The computer 250 can obtain the turbidity based on the luminance difference (normalized luminance difference Nc) by referring to the luminance difference / turbidity correspondence information 218a, and can refer to the turbidity / distance correspondence information 218b. The distance from the underwater robot 100 to the inspection object 10P can be determined based on the turbidity.
 [1-2-2.濁度に応じた距離制御動作]
 図9は、実施の形態1における、水の濁度に基づいて検査対象物10Pまでの距離を制御する地上ユニット200における処理を示すフローチャートである。
[1-2-2. Distance control operation according to turbidity]
FIG. 9 is a flowchart showing a process in the ground unit 200 for controlling the distance to the inspection object 10P based on the turbidity of water in the first embodiment.
 CPU210は、通信ユニット230及び通信インタフェース部212を介して水中ロボット100の操縦用カメラ116で撮影された画像を取得する(ステップS21)。CPU210の濁度検出部214は、取得した画像に含まれる測定部材170の部分170pの画像に基づき明領域170wと暗領域170bのそれぞれの輝度を求める(ステップS22)。次に、濁度検出部214は、求めた明領域170wと暗領域170bの輝度の差を正規化した値である正規化輝度差Ncを(数1)に基づき求める(ステップS23)。 CPU210 acquires the image image | photographed with the camera 116 for operation of the underwater robot 100 via the communication unit 230 and the communication interface part 212 (step S21). The turbidity detection unit 214 of the CPU 210 calculates the brightness of each of the bright area 170w and the dark area 170b based on the image of the portion 170p of the measurement member 170 included in the acquired image (step S22). Next, the turbidity detection unit 214 obtains a normalized luminance difference Nc that is a value obtained by normalizing the obtained luminance difference between the bright region 170w and the dark region 170b based on (Equation 1) (step S23).
 さらに、濁度検出部214は、輝度差-濁度対応情報218a(図7参照)を参照し、求めた正規化輝度差Ncから濁度を算出する(ステップS24)。次に、距離決定部216は、濁度-距離対応情報218b(図8参照)を参照し、求めた濁度から検査対象物10Pまでの距離を決定する(ステップS25)。 Further, the turbidity detecting unit 214 refers to the luminance difference-turbidity correspondence information 218a (see FIG. 7) and calculates the turbidity from the obtained normalized luminance difference Nc (step S24). Next, the distance determining unit 216 refers to the turbidity-distance correspondence information 218b (see FIG. 8), and determines the distance from the obtained turbidity to the inspection object 10P (step S25).
 コンピュータ250のCPU210は、水中ロボット100から検査対象物10Pまでの距離が、上記の決定した距離となるように水中ロボット100の位置を制御する(ステップS26)。水中ロボットは、コンピュータ250からの指示にしたがいスラスタ130を制御して水中ロボット100と検査対象物10Pとの距離を上記の決定された距離に維持する。 The CPU 210 of the computer 250 controls the position of the underwater robot 100 so that the distance from the underwater robot 100 to the inspection object 10P becomes the determined distance (step S26). The underwater robot controls the thruster 130 according to an instruction from the computer 250 to maintain the distance between the underwater robot 100 and the inspection object 10P at the determined distance.
 以上のような制御により、水中ロボット100から検査対象物10Pまでの距離を水の濁度に応じた距離に制御することができる。すなわち、濁度がより高くなるほど、水中ロボット100と検査対象物10Pとの距離がより短くなるようにその距離を制御する。 By the control as described above, the distance from the underwater robot 100 to the inspection object 10P can be controlled to a distance according to the turbidity of water. That is, as the turbidity increases, the distance is controlled so that the distance between the underwater robot 100 and the inspection object 10P becomes shorter.
 図10Aと図10Bは検査用カメラ150が撮影した画像を示す。例えば、濁度が高く、図10Aに示すように、検査対象物10Pから水中ロボット100(検査用カメラ150)までの距離Dxにおいて検査用カメラ150で明瞭な画像を得ることができないときに、図10Bに示すように水中ロボット100を、水中ロボット100から検査対象物10Pまでの距離が距離Dy(<Dx)になるように検査対象物10Pに近づける。これにより、図10Bに示すように、検査用カメラ150による撮影画像の画角は小さくなるが、明瞭な画像を得ることが可能になる。 10A and 10B show images taken by the inspection camera 150. FIG. For example, when the turbidity is high and a clear image cannot be obtained by the inspection camera 150 at a distance Dx from the inspection object 10P to the underwater robot 100 (inspection camera 150) as shown in FIG. As shown in 10B, the underwater robot 100 is brought closer to the inspection object 10P so that the distance from the underwater robot 100 to the inspection object 10P is the distance Dy (<Dx). As a result, as shown in FIG. 10B, the angle of view of the image captured by the inspection camera 150 is reduced, but a clear image can be obtained.
 上記の例では、メモリ218は1つの輝度差-濁度対応情報218aを保持する。メモリ218は複数の輝度差-濁度対応情報を保持し、用途に応じて切り替えて使用してもよい。例えば、図11Aに示すように、メモリ218は、濁度と検査対象物10Pまでの被写体距離との関係をそれぞれ示2種類の輝度差-濁度対応情報1218a、2218aを保持してもよい。輝度差-濁度対応情報1218aはラフな検査を行うときに用い、輝度差-濁度対応情報2218aは精密な検査を行うときに用いる。輝度差-濁度対応情報1218aを用いた場合、水中ロボット100を検査対象物10Pから離して検査対象物10Pの画像を撮影することにより、画像の明瞭性は悪くなるが、一度によい広い範囲の撮影が可能になるため、検査範囲全体の画像を撮影する時間を短くできる。このような検査は検査対象物10P全体の概要をまず知りたい場合に有効である。一方、輝度差-濁度対応情報2218aを用いた場合、水中ロボット100を検査対象物10Pにより近づけて検査対象物10Pの画像を撮影することにより、一度で撮影できる範囲がより狭くなり、検査範囲全体の画像を撮影する時間は長くなるが、画像の明瞭性を向上できる。よって、図11Aに示すように、メモリ218がラフな検査用と精密な検査のそれぞれの用途に応じて2種類の輝度差-濁度対応情報1218a、2218aを保持しておき、それらを切り替えて使用することで、用途に応じた好適な検査を行うことが可能となる。 In the above example, the memory 218 holds one luminance difference-turbidity correspondence information 218a. The memory 218 holds a plurality of luminance difference-turbidity correspondence information, and may be used by switching according to the application. For example, as shown in FIG. 11A, the memory 218 may hold two types of luminance difference- turbidity correspondence information 1218a and 2218a, each indicating the relationship between turbidity and the subject distance to the inspection object 10P. The luminance difference-turbidity correspondence information 1218a is used when performing a rough inspection, and the luminance difference-turbidity correspondence information 2218a is used when performing a precise inspection. When the brightness difference / turbidity correspondence information 1218a is used, the underwater robot 100 is separated from the inspection object 10P and the image of the inspection object 10P is taken, but the clarity of the image is deteriorated, but a wide range that is good at once. Therefore, it is possible to shorten the time for capturing an image of the entire inspection range. Such an inspection is effective when it is desired to first obtain an overview of the entire inspection object 10P. On the other hand, when the luminance difference-turbidity correspondence information 2218a is used, the range that can be captured at a time becomes narrower by capturing the image of the inspection target 10P by bringing the underwater robot 100 closer to the inspection target 10P, and the inspection range is reduced. Although it takes a long time to capture the entire image, the clarity of the image can be improved. Therefore, as shown in FIG. 11A, the memory 218 holds two types of brightness difference- turbidity correspondence information 1218a and 2218a according to the use for rough inspection and precise inspection, and switches between them. By using it, it becomes possible to perform a suitable inspection according to the application.
 また、図8に示す濁度-距離対応情報218bは濁度に対して連続的に被写体までの距離を与えるが、被写体距離情報はこれに限定されない。図11Bは実施の形態1における他の濁度-距離対応情報1218bを示す。図11Bに示す濁度-距離対応情報1218bは、濁度に基づいてステップ状すなわち離散的に検査対象物10Pまでの距離を与える。 Further, the turbidity-distance correspondence information 218b shown in FIG. 8 gives the distance to the subject continuously with respect to the turbidity, but the subject distance information is not limited to this. FIG. 11B shows other turbidity-distance correspondence information 1218b in the first embodiment. The turbidity-distance correspondence information 1218b shown in FIG. 11B gives the distance to the inspection object 10P stepwise based on the turbidity, that is, discretely.
 [1-3.効果等]
 以上のように、濁度検出装置10Aは、暗領域170bと明領域170wとを有する測定部材170と、測定部材170の少なくとも一部分170pを水の中にて撮影して画像データを生成する操縦用カメラ116と、操縦用カメラ116から画像データを取得する通信インタフェース部212と、取得した画像データが示す画像における暗領域170bと明領域170wの画像情報(輝度差)に基づき濁度を算出する濁度検出部214(CPU210)とを備える。実施の形態1では、暗領域170bは黒色に着色されており黒く、明領域170wは白色に着色されて白い。
[1-3. Effect]
As described above, the turbidity detection device 10A is used for steering to generate image data by photographing the measurement member 170 having the dark region 170b and the bright region 170w and at least a part 170p of the measurement member 170 in water. Turbidity that calculates turbidity based on image information (luminance difference) between the dark area 170b and the bright area 170w in the image indicated by the acquired image data, the communication interface unit 212 that acquires image data from the camera 116, and the steering camera 116. Degree detector 214 (CPU 210). In the first embodiment, the dark region 170b is black and black, and the bright region 170w is white and white.
 また、実施の形態1における水中検査装置10は水の中にある検査対象物10Pの画像を撮影し、濁度検出装置10Aを備え、濁度に応じて検査対象物10Pまでの距離を制御する。すなわち、水中検査装置10は、暗領域170bと明領域170wとを有する測定部材170と、測定部材170の暗領域170b及び明領域170wの少なくとも一部を水の中にて撮影して画像データを生成するカメラ116(操縦用カメラ)と、カメラ116により生成された画像データが示す暗領域170bと明領域170wの画像情報に基づいて検査対象物10Pと水中ロボット100の間の距離を制御するコンピュータ250とを備える。 In addition, the underwater inspection apparatus 10 according to the first embodiment takes an image of the inspection object 10P in the water, includes a turbidity detection apparatus 10A, and controls the distance to the inspection object 10P according to the turbidity. . That is, the underwater inspection apparatus 10 captures image data by photographing a measurement member 170 having a dark region 170b and a bright region 170w, and at least a part of the dark region 170b and the bright region 170w of the measurement member 170 in water. A computer that controls the distance between the inspection object 10P and the underwater robot 100 based on the image information of the camera 116 (steering camera) to be generated and the dark region 170b and the bright region 170w indicated by the image data generated by the camera 116. 250.
 以上のように、実施の形態1では、測定部材170の画像情報に基づき濁度を検出できる。測定部材170は水の中に没した状態で撮影されるため、特に耐水圧容器に収納する必要が無い。また、測定部材170は小型軽量なものでよく、容易に水中ロボット100に搭載することができる。このように簡易な構成の濁度検出装置10Aを提供できる。 As described above, in the first embodiment, turbidity can be detected based on the image information of the measurement member 170. Since the measurement member 170 is photographed in a state of being immersed in water, it is not particularly necessary to store it in the water pressure resistant container. The measuring member 170 may be small and light and can be easily mounted on the underwater robot 100. Thus, 10 A of turbidity detection apparatuses of a simple structure can be provided.
 また、水中検査装置10は、水の濁度に応じて水中ロボット100と検査対象物10P間の距離を制御する。具体的には、水中検査装置10は濁度が高い程、水中ロボット100と検査対象物10Pと間の距離が小さくなるようにその距離を制御する。このため、濁った水中環境下であっても点検に好適な距離で検査対象物10Pの画像を撮影することができる。 Also, the underwater inspection apparatus 10 controls the distance between the underwater robot 100 and the inspection object 10P according to the turbidity of water. Specifically, the underwater inspection apparatus 10 controls the distance so that the higher the turbidity, the smaller the distance between the underwater robot 100 and the inspection object 10P. For this reason, even in a cloudy underwater environment, an image of the inspection object 10P can be taken at a distance suitable for inspection.
 (実施の形態2)
 実施の形態1の水中検査装置10では、最初に測定部材170の撮像画像から求めた輝度差から水の濁度を求め、次に濁度から検査対象物10Pまでの距離を求める。実施の形態2における水中検査装置10では、測定部材170の撮像画像から求めた輝度差から直接被写体距離を求める構成を説明する。なお、実施の形態2の水中検査装置10の構成及び動作は実施の形態1で示したものと基本的に同様である。以下、実施の形態1とは異なる、本実施形態の水中検査装置10の構成、動作について説明する。
(Embodiment 2)
In the underwater inspection apparatus 10 of the first embodiment, the turbidity of water is first obtained from the luminance difference obtained from the captured image of the measuring member 170, and then the distance from the turbidity to the inspection object 10P is obtained. In the underwater inspection apparatus 10 according to the second embodiment, a configuration for directly obtaining the subject distance from the luminance difference obtained from the captured image of the measurement member 170 will be described. The configuration and operation of the underwater inspection apparatus 10 of the second embodiment are basically the same as those shown in the first embodiment. Hereinafter, the configuration and operation of the underwater inspection apparatus 10 of the present embodiment, which are different from those of the first embodiment, will be described.
 図12Aは、実施の形態2における、測定部材170の撮像画像から得た正規化輝度差Ncと、検査対象までの距離との関係を示す。この関係は、実施の形態1で示した輝度差-濁度対応情報218a(図7参照)と濁度-距離対応情報218b(図8参照)とを組み合わせることで求めることができる。 FIG. 12A shows the relationship between the normalized luminance difference Nc obtained from the captured image of the measurement member 170 and the distance to the inspection object in the second embodiment. This relationship can be obtained by combining the luminance difference-turbidity correspondence information 218a (see FIG. 7) and the turbidity-distance correspondence information 218b (see FIG. 8) shown in the first embodiment.
 実施の形態2の水中検査装置10のコンピュータ250のメモリ218は、図12Bに示す正規化輝度差Ncと検査対象物10Pまでの距離との関係を示す輝度差-距離対応情報218cを格納している。 The memory 218 of the computer 250 of the underwater inspection apparatus 10 according to the second embodiment stores the luminance difference-distance correspondence information 218c indicating the relationship between the normalized luminance difference Nc shown in FIG. 12B and the distance to the inspection object 10P. Yes.
 図13は、実施の形態2の地上ユニット200における、水の濁度に基づいて水中ロボット100と検査対象物10Pまでの距離を制御する処理を示すフローチャートである。 FIG. 13 is a flowchart showing a process for controlling the distance between the underwater robot 100 and the inspection object 10P based on the turbidity of water in the ground unit 200 of the second embodiment.
 コンピュータ250のCPU210は、通信ユニット230及び通信インタフェース部212を介して水中ロボット100の操縦用カメラ116で撮影された画像を取得する(ステップS31)。濁度検出部214は、取得した画像に含まれる測定部材170の部分170pの画像に基づき、測定部材170の部分170pの明領域170wと暗領域170bそれぞれの輝度を求める(ステップS32)。次に、濁度検出部214は、求めた明領域170wと暗領域170bそれぞれの輝度から、正規化輝度差Ncを(数1)を用いて求める(ステップS33)。 The CPU 210 of the computer 250 acquires an image captured by the steering camera 116 of the underwater robot 100 via the communication unit 230 and the communication interface unit 212 (step S31). The turbidity detection unit 214 obtains the brightness of each of the bright region 170w and the dark region 170b of the portion 170p of the measurement member 170 based on the image of the portion 170p of the measurement member 170 included in the acquired image (step S32). Next, the turbidity detection unit 214 obtains a normalized luminance difference Nc using (Equation 1) from the obtained luminance of each of the bright region 170w and the dark region 170b (step S33).
 コンピュータ250のCPU210は、輝度差-距離対応情報218c(図12A、図12B参照)を参照し、求めた正規化輝度差Ncから検査対象物10Pまでの距離を算出する(ステップS34)。 The CPU 210 of the computer 250 refers to the luminance difference / distance correspondence information 218c (see FIGS. 12A and 12B) and calculates the distance from the obtained normalized luminance difference Nc to the inspection object 10P (step S34).
 コンピュータ250のCPU210は、水中ロボット100から検査対象物10Pまでの距離が、算出した距離となるように、水中ロボット100の位置を制御する(ステップS35)。 The CPU 210 of the computer 250 controls the position of the underwater robot 100 so that the distance from the underwater robot 100 to the inspection object 10P is the calculated distance (step S35).
 このように実施の形態2における水中検査装置10では、測定部材170の部分170pの撮像画像から求めた輝度差から検査対象物10Pまでの距離を直接算出し、算出した距離に基づいて水中ロボット100と検査対象物10Pまでの距離を制御する。 As described above, in the underwater inspection apparatus 10 according to the second embodiment, the distance from the luminance difference obtained from the captured image of the portion 170p of the measuring member 170 to the inspection target 10P is directly calculated, and the underwater robot 100 is based on the calculated distance. And the distance to the inspection object 10P is controlled.
 図14Aと図14Bは、実施の形態2における他の輝度差-距離対応情報1218c、2218cを示す。輝度差と被写体距離の関係は、検査用途に応じて適宜設定することができるが、基本的には、輝度差に対して被写体距離が単調増加する。したがって、正規化輝度差Ncは検査対象物10Pまでの距離と図14Aに示す輝度差-距離対応情報1218cの関係にある。または、図14Bに示す輝度差-距離対応情報2218cでは、輝度差に対してステップ状(離散的に)に距離が対応する。 14A and 14B show other luminance difference- distance correspondence information 1218c and 2218c in the second embodiment. The relationship between the luminance difference and the subject distance can be set as appropriate according to the inspection application, but basically the subject distance monotonously increases with respect to the luminance difference. Therefore, the normalized luminance difference Nc has a relationship between the distance to the inspection object 10P and the luminance difference-distance correspondence information 1218c shown in FIG. 14A. Alternatively, in the luminance difference / distance correspondence information 2218c shown in FIG. 14B, the distance corresponds to the luminance difference in a step-like manner (discretely).
 (実施の形態3)
 実施の形態3における水中検査装置10の構成及び動作は実施の形態1で示したものと基本的に同様である。以下、実施の形態1とは異なる、実施形態3の水中検査装置10の構成、動作について説明する。
(Embodiment 3)
The configuration and operation of the underwater inspection apparatus 10 in the third embodiment are basically the same as those shown in the first embodiment. Hereinafter, the configuration and operation of the underwater inspection apparatus 10 of the third embodiment, which is different from the first embodiment, will be described.
 実施の形態1では、図4Aに示す1つの明領域170wと1つの暗領域170bとを有する測定部材170を用いる。図15Aと図15Bは、実施の形態3における水中検査装置10での測定部材170の明領域170wと暗領域170bとを示す。図15Aと図15Bに示す測定部材170では、前記暗領域170bは、互いに幅が異なる複数の暗部分170sを有する。前記明領域170wは、前記複数の暗部分170sと交互に配置されている複数の明部分170tを有する。実施の形態3では、複数の暗部分170sは黒く着色されていて黒く、前記複数の明部分170tは白く着色されており白い。互いに交互に配置された複数の暗部分170sと複数の明部分170tとは解像度チャートを構成する。 In Embodiment 1, the measurement member 170 having one bright area 170w and one dark area 170b shown in FIG. 4A is used. 15A and 15B show a bright region 170w and a dark region 170b of the measurement member 170 in the underwater inspection apparatus 10 according to the third embodiment. In the measurement member 170 shown in FIGS. 15A and 15B, the dark region 170b has a plurality of dark portions 170s having different widths. The bright region 170w has a plurality of bright portions 170t arranged alternately with the plurality of dark portions 170s. In the third embodiment, the plurality of dark portions 170s are black and black, and the plurality of light portions 170t are white and white. The plurality of dark portions 170s and the plurality of bright portions 170t arranged alternately constitute a resolution chart.
 解像度チャートの画像を操縦用カメラ116で撮影し、その撮影画像を解析して画像の解像度を求め、求めた解像度から水の濁度を検出することができる。この場合、図16Aに示すように解像度と濁度の関係を事前に実験的に求めておく。図16Bに示すように、その関係を解像度-濁度対応情報218dとしてコンピュータ250のメモリ218に格納する。コンピュータ250の距離決定部216は解像度-濁度対応情報218dを参照することで、撮影画像の解像度から検査対象物までの距離を決定することができる。 The image of the resolution chart is taken with the steering camera 116, the taken image is analyzed, the resolution of the image is obtained, and the turbidity of water can be detected from the obtained resolution. In this case, as shown in FIG. 16A, the relationship between resolution and turbidity is experimentally obtained in advance. As shown in FIG. 16B, the relationship is stored in the memory 218 of the computer 250 as resolution-turbidity correspondence information 218d. The distance determination unit 216 of the computer 250 can determine the distance from the resolution of the captured image to the inspection object by referring to the resolution-turbidity correspondence information 218d.
 図17は、実施の形態3における、地上ユニット200における、水の濁度に基づいて水中ロボット100の距離を制御する処理を示すフローチャートである。 FIG. 17 is a flowchart showing processing for controlling the distance of the underwater robot 100 based on the turbidity of water in the ground unit 200 in the third embodiment.
 コンピュータ250のCPU210は、通信ユニット230及び通信インタフェース部212を介して水中ロボット100の操縦用カメラ116で撮影された画像を取得する(ステップS41)。濁度検出部214は、取得した画像に含まれる測定部材170の部分170pの解像度チャートの画像の解像度を求める(ステップS42)。次に、濁度検出部214は、解像度-濁度対応情報218dを参照して、求めた解像度から濁度を求める(ステップS43)。 The CPU 210 of the computer 250 acquires an image photographed by the steering camera 116 of the underwater robot 100 via the communication unit 230 and the communication interface unit 212 (step S41). The turbidity detection unit 214 obtains the resolution of the resolution chart image of the portion 170p of the measurement member 170 included in the acquired image (step S42). Next, the turbidity detection unit 214 refers to the resolution-turbidity correspondence information 218d to obtain turbidity from the obtained resolution (step S43).
 次に、距離決定部216は、濁度-距離対応情報218bを参照し、求めた濁度から検査対象物10Pまでの距離を算出する(ステップS44)。 Next, the distance determination unit 216 refers to the turbidity-distance correspondence information 218b and calculates the distance from the obtained turbidity to the inspection object 10P (step S44).
 コンピュータ250のCPU210は、水中ロボット100から検査対象物10Pまでの距離が、算出した距離となるように水中ロボット100の位置を制御する(ステップS45)。 The CPU 210 of the computer 250 controls the position of the underwater robot 100 so that the distance from the underwater robot 100 to the inspection object 10P becomes the calculated distance (step S45).
 以上のようにして、測定部材170の解像度チャートの画像の解像度から濁度を求めることができる。なお、実施の形態2のように、解像度と、検査対象物10Pまでの距離とを対応づけた解像度-距離対応情報を予め準備しておき、画像の解像度から検査対象物10Pまでの距離を直接的に求めることもできる。 As described above, the turbidity can be obtained from the resolution of the resolution chart image of the measurement member 170. As in the second embodiment, resolution-distance correspondence information that associates the resolution with the distance to the inspection object 10P is prepared in advance, and the distance from the image resolution to the inspection object 10P is directly determined. Can also be sought.
 (実施の形態4)
 図18は実施の形態4における水中検査装置10Cの断面図である。図18において、図1から図4Bに示す実施の形態1における水中検査装置10と同じ部分には同じ参照番号を付す。水中検査装置10Cは、図4Bに示す実施の形態1における水中検査装置10の測定部材170を覆う遮光部401と、参照光源402とをさらに備える。遮光部401は操縦用カメラ116の画角Xの一部を覆う。
(Embodiment 4)
FIG. 18 is a cross-sectional view of the underwater inspection apparatus 10C in the fourth embodiment. In FIG. 18, the same reference numerals are assigned to the same parts as those of the underwater inspection apparatus 10 in Embodiment 1 shown in FIGS. 1 to 4B. 10C of underwater inspection apparatuses are further provided with the light-shielding part 401 which covers the measurement member 170 of the underwater inspection apparatus 10 in Embodiment 1 shown to FIG. 4B, and the reference light source 402. FIG. The light shielding unit 401 covers a part of the angle of view X of the control camera 116.
 図1から図4Bに示す実施の形態1における水中検査装置10では、測定部材170に照射される光は、周辺からの散乱光、または、照明装置120から検査対象物10P、防水容器118および測定部材170を含む経路を通過した反射光であり、すなわち、測定部材170の周囲の光である。 In the underwater inspection apparatus 10 according to Embodiment 1 shown in FIGS. 1 to 4B, the light irradiated on the measurement member 170 is scattered light from the surroundings, or the inspection object 10P, the waterproof container 118, and the measurement from the illumination device 120. The reflected light that has passed through the path including the member 170, that is, the light around the measuring member 170.
 図18に示す水中検査装置10Cでは、遮光部401は測定部材170の周囲の上記光を測定部材170に届かないように遮る。参照光源402は測定部材170の明領域170wと暗領域170bとに光を照射する。水中検査装置10Cでは、測定部材170の周囲の光に関わらず、測定部材170に安定した光を照射できるので、測定部材170の明領域170wと暗領域170bのコントラストがより安定に検出できる。 In the underwater inspection apparatus 10 </ b> C shown in FIG. 18, the light shielding unit 401 blocks the light around the measurement member 170 so as not to reach the measurement member 170. The reference light source 402 irradiates light to the bright area 170w and the dark area 170b of the measuring member 170. In the underwater inspection apparatus 10C, the measurement member 170 can be irradiated with stable light regardless of the surrounding light of the measurement member 170, so that the contrast between the bright region 170w and the dark region 170b of the measurement member 170 can be detected more stably.
 (他の実施の形態)
 以上のように、本出願において開示する技術の例示として、実施の形態1~4を説明した。しかしながら、本開示における技術は、これに限定されず、適宜、変更、置き換え、付加、省略などを行った実施の形態にも適用可能である。また、上記実施の形態1~3で説明した各構成要素を組み合わせて、新たな実施の形態とすることも可能である。そこで、以下、他の実施の形態を例示する。
(Other embodiments)
As described above, Embodiments 1 to 4 have been described as examples of the technology disclosed in the present application. However, the technology in the present disclosure is not limited to this, and can also be applied to an embodiment in which changes, replacements, additions, omissions, and the like are appropriately performed. Also, it is possible to combine the components described in the first to third embodiments to form a new embodiment. Therefore, other embodiments will be exemplified below.
 上記の実施の形態では、水中ロボット100の操縦用カメラ116で撮影された画像の情報(輝度差や解像度)に基づき濁度を判定したが、検査用カメラ150で撮影された画像の情報から濁度を判定してもよい。 In the above embodiment, the turbidity is determined based on the information (brightness difference and resolution) of the image captured by the steering camera 116 of the underwater robot 100, but the turbidity is determined from the information of the image captured by the inspection camera 150. The degree may be determined.
 上記の実施の形態では、操縦用の画像を撮影する操縦用カメラと検査用の画像を撮影する検査用カメラとを別々に設けたが、操縦用の画像と検査用の画像とを同じカメラで撮影するようにしてもよい。 In the above embodiment, the steering camera that captures the steering image and the inspection camera that captures the inspection image are provided separately, but the steering image and the inspection image are provided by the same camera. You may make it photograph.
 上記の実施の形態で示した濁度検出装置の構成は、水の濁度の検出に限定されるものではなく、水以外の他の液体の濁度の検出にも適用することができる。 The configuration of the turbidity detection device shown in the above embodiment is not limited to the detection of turbidity of water, but can also be applied to the detection of turbidity of liquids other than water.
 上記実施の形態においてCPU210が実行するプログラムは、DVD-ROM、CD-ROM等の記録媒体によって提供されてもよいし、通信回線を介してネットワーク上のサーバからダウンロードされてもよい。また、CPU210の機能は、ハードウェアとソフトウェア(アプリケーションプログラム)の協働により実現したが、所定の機能を実現するように専用に設計されたハードウェア回路のみで実現してもよい。よって、CPU210に代えて、MPU、DSP、FPGA、ASIC等で上述の機能を実現してもよい。 In the above embodiment, the program executed by the CPU 210 may be provided by a recording medium such as a DVD-ROM or CD-ROM, or may be downloaded from a server on a network via a communication line. The functions of the CPU 210 are realized by cooperation of hardware and software (application program), but may be realized only by a hardware circuit designed exclusively for realizing a predetermined function. Therefore, instead of the CPU 210, the above-described functions may be realized by an MPU, DSP, FPGA, ASIC, or the like.
 以上のように、本開示における技術の例示として、実施の形態を説明した。そのために、添付図面および詳細な説明を提供した。 As described above, the embodiments have been described as examples of the technology in the present disclosure. For this purpose, the accompanying drawings and detailed description are provided.
 したがって、添付図面および詳細な説明に記載された構成要素の中には、課題解決のために必須な構成要素だけでなく、上記技術を例示するために、課題解決のためには必須でない構成要素も含まれ得る。そのため、それらの必須ではない構成要素が添付図面や詳細な説明に記載されていることをもって、直ちに、それらの必須ではない構成要素が必須であるとの認定をするべきではない。 Accordingly, among the components described in the accompanying drawings and the detailed description, not only the components essential for solving the problem, but also the components not essential for solving the problem in order to illustrate the above technique. May also be included. Therefore, it should not be immediately recognized that these non-essential components are essential as those non-essential components are described in the accompanying drawings and detailed description.
 また、上述の実施の形態は、本開示における技術を例示するためのものであるから、請求の範囲またはその均等の範囲において種々の変更、置き換え、付加、省略などを行うことができる。 In addition, since the above-described embodiment is for illustrating the technique in the present disclosure, various modifications, replacements, additions, omissions, and the like can be performed within the scope of the claims or an equivalent scope thereof.
 本開示における濁度検査装置は、水中にある物体(ダム壁、橋梁の橋桁等)を検査する検査装置に有用である。 The turbidity inspection apparatus according to the present disclosure is useful for an inspection apparatus that inspects an object (dam wall, bridge girder of a bridge, etc.) in water.
10  水中検査装置(液中検査装置)
10A  濁度検出装置
100  水中ロボット(液中ロボット)
110  本体ユニット
112  通信ユニット
114  制御ユニット
116  操縦用カメラ
120  照明装置
130  スラスタ
140  ソナー
150  検査用カメラ
160  バッテリ
170  測定部材
200  地上ユニット
210  CPU
211  表示部
214  濁度検出部
216  距離決定部
212  通信インタフェース部
218  メモリ
218a  輝度差-濁度対応情報
218b  濁度-距離対応情報
218c  輝度差-距離対応情報
218d  解像度-濁度対応情報
220  コントローラ
230  通信ユニット
250  コンピュータ
300  通信ケーブル
10 Underwater inspection equipment (in-liquid inspection equipment)
10A Turbidity Detector 100 Underwater Robot (Liquid Robot)
110 Main unit 112 Communication unit 114 Control unit 116 Steering camera 120 Illumination device 130 Thruster 140 Sonar 150 Inspection camera 160 Battery 170 Measuring member 200 Ground unit 210 CPU
211 Display unit 214 Turbidity detection unit 216 Distance determination unit 212 Communication interface unit 218 Memory 218a Luminance difference-turbidity correspondence information 218b Turbidity-distance correspondence information 218c Luminance difference-distance correspondence information 218d Resolution-turbidity correspondence information 220 Controller 230 Communication unit 250 Computer 300 Communication cable

Claims (14)

  1. 液体の濁度を検出する濁度検出装置であって、
     暗領域と、前記暗領域より明度が高い明領域とを有する測定部材と、
     前記測定部材の前記暗領域と前記明領域とを前記液体を通して撮影して画像データを生成するカメラと、
     前記画像データでの前記暗領域の第1の画像情報と前記明領域の第2の画像情報とに基づき前記濁度を検出する濁度検出部と、
    を備えた濁度検出装置。
    A turbidity detection device for detecting the turbidity of a liquid,
    A measuring member having a dark region and a bright region having a higher brightness than the dark region;
    A camera that captures the dark region and the bright region of the measurement member through the liquid to generate image data;
    A turbidity detector that detects the turbidity based on the first image information of the dark region and the second image information of the bright region in the image data;
    A turbidity detection device comprising:
  2. 照明装置をさらに備え、
    前記暗領域と前記明領域とが前記カメラに対向する状態で、前記測定部材が前記照明装置と前記カメラの間に配置されている、請求項1に記載の濁度検出装置。
    A lighting device;
    The turbidity detection device according to claim 1, wherein the measurement member is disposed between the illumination device and the camera in a state where the dark region and the bright region face the camera.
  3. 前記暗領域の前記第1の画像情報は前記暗領域の輝度であり、
    前記明領域の前記第2の画像情報は前記明領域の輝度であり、
    前記濁度検出部は、前記暗領域の前記輝度と前記明領域の前記輝度との差に基づき前記濁度を検出する、請求項1に記載の濁度検出装置。
    The first image information of the dark region is a luminance of the dark region;
    The second image information of the bright area is the brightness of the bright area;
    The turbidity detection device according to claim 1, wherein the turbidity detection unit detects the turbidity based on a difference between the luminance of the dark region and the luminance of the bright region.
  4. 前記暗領域は黒く、前記明領域は白い、請求項1に記載の濁度検出装置。 The turbidity detection device according to claim 1, wherein the dark region is black and the bright region is white.
  5. 前記濁度検出部は、前記第1の画像情報と前記第2の画像情報から前記画像データが示す画像の解像度を求め、前記解像度に基づき前記濁度を検出する、請求項1に記載の濁度検出装置。 2. The turbidity detection unit according to claim 1, wherein the turbidity detection unit obtains a resolution of an image indicated by the image data from the first image information and the second image information, and detects the turbidity based on the resolution. Degree detection device.
  6. 前記暗領域は、互いに幅が異なる複数の黒い領域を有し、
    前記明領域は、前記複数の黒い領域と交互に配置されている複数の白い領域を有する、請求項5に記載の濁度検出装置。
    The dark region has a plurality of black regions having different widths from each other,
    The turbidity detection device according to claim 5, wherein the bright region has a plurality of white regions arranged alternately with the plurality of black regions.
  7. 液体の中にある検査対象物の画像を撮影する液中検査装置であって、
     暗領域と、前記暗領域より明度が高い明領域とを有する測定部材と、
     前記暗領域と前記明領域とを前記液体を通して撮影して画像データを生成するカメラと、
     前記画像データが示す前記暗領域の第1の画像情報と前記明領域の第2の画像情報とに基づいて前記検査対象物と前記液中検査装置の間の距離を制御する制御部と、
    を備えた液中検査装置。
    An in-liquid inspection device for taking an image of an inspection object in a liquid,
    A measuring member having a dark region and a bright region having a higher brightness than the dark region;
    A camera that captures the dark area and the bright area through the liquid to generate image data;
    A control unit for controlling a distance between the inspection object and the submerged inspection device based on the first image information of the dark region and the second image information of the bright region indicated by the image data;
    In-liquid inspection device with
  8. 前記検査対象物に光を照射する照明装置をさらに備え、
    前記暗領域と前記明領域とが前記カメラに対向している状態で、前記測定部材は前記照明装置と前記カメラの間に配置される、請求項7に記載の液中検査装置。
    Further comprising an illumination device for irradiating the inspection object with light,
    The in-liquid inspection device according to claim 7, wherein the measurement member is disposed between the illumination device and the camera in a state where the dark region and the bright region face the camera.
  9. 前記暗領域の前記第1の画像情報は前記暗領域の輝度であり、
    前記明領域の前記第2の画像情報は前記明領域の輝度であり、
    前記制御部は、前記暗領域の前記輝度と前記明領域の前記輝度との差に基づいて前記検査対象物と前記液中検査装置の間の前記距離を制御する、請求項7に記載の液中検査装置。
    The first image information of the dark region is a luminance of the dark region;
    The second image information of the bright area is the brightness of the bright area;
    The liquid according to claim 7, wherein the control unit controls the distance between the inspection object and the submerged inspection apparatus based on a difference between the luminance of the dark region and the luminance of the bright region. Medium inspection device.
  10. 前記暗領域は黒く、前記明領域は白い、請求項7に記載の液中検査装置。 The submerged inspection apparatus according to claim 7, wherein the dark region is black and the bright region is white.
  11. 前記制御部は、前記第1の画像情報と前記第2の画像情報とに基づいて、前記画像データが示す画像の解像度を求め、前記解像度に基づいて前記検査対象物と前記液中検査装置の間の前記距離を制御する、請求項7に記載の液中検査装置。 The control unit obtains a resolution of an image indicated by the image data based on the first image information and the second image information, and based on the resolution, the inspection object and the submerged inspection apparatus The in-liquid inspection device according to claim 7, wherein the distance between the two is controlled.
  12. 前記暗領域は、互いに幅が異なる複数の暗部分を有し、
    前記明領域は、前記複数の暗領域と交互に配置されている複数の明部分を有する、請求項11に記載の液中検査装置。
    The dark region has a plurality of dark portions having different widths from each other;
    The in-liquid inspection device according to claim 11, wherein the bright region has a plurality of bright portions arranged alternately with the plurality of dark regions.
  13. 暗領域と、前記暗領域より明度の高い明領域とを有する測定部材を液体の中に配置し、
    前記測定部材の前記暗領域と前記明領域とを前記液体を通して撮影して画像データを生成し、
    前記画像データが示す画像における前記暗領域と前記明領域の画像情報に基づき前記液体の濁度を検出する、
    濁度検出方法。
    A measuring member having a dark area and a bright area having a higher brightness than the dark area is disposed in the liquid;
    Photographing the dark region and the bright region of the measuring member through the liquid to generate image data,
    Detecting the turbidity of the liquid based on image information of the dark area and the bright area in the image indicated by the image data;
    Turbidity detection method.
  14. 前記暗領域は黒く、前記明領域は白い、請求項13に記載の濁度検出方法。 The turbidity detection method according to claim 13, wherein the dark region is black and the bright region is white.
PCT/JP2016/004654 2016-04-04 2016-10-21 Turbidity detection apparatus, turbidity detection method, and submerged inspection apparatus WO2017175261A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017513830A JP6145728B1 (en) 2016-04-04 2016-10-21 Submerged inspection apparatus and submerged inspection method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016075349 2016-04-04
JP2016-075349 2016-04-04

Publications (1)

Publication Number Publication Date
WO2017175261A1 true WO2017175261A1 (en) 2017-10-12

Family

ID=60000362

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/004654 WO2017175261A1 (en) 2016-04-04 2016-10-21 Turbidity detection apparatus, turbidity detection method, and submerged inspection apparatus

Country Status (1)

Country Link
WO (1) WO2017175261A1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210018994A (en) * 2018-06-13 2021-02-19 소니 세미컨덕터 솔루션즈 가부시키가이샤 Demodulation circuit, processing method, and processing device
CN112530226A (en) * 2020-12-13 2021-03-19 中国船舶重工集团公司七五0试验场 ROV simulation training system for turbid water area auxiliary operation
US11737434B2 (en) 2021-07-19 2023-08-29 X Development Llc Turbidity determination using computer vision
WO2023210702A1 (en) * 2022-04-27 2023-11-02 ソフトバンク株式会社 Information processing program, information processing device, and information processing method
EP4306937A1 (en) * 2022-07-12 2024-01-17 Maytronics Ltd. Water turbidity evaluation using image sensor

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS55124069A (en) * 1979-03-20 1980-09-24 Fuyo Kaiyo Kaihatsu Kk Measuring method of concentration of suspended matter in water and organic index
JPS613032A (en) * 1984-06-18 1986-01-09 Hitachi Ltd Floc monitor system
JPH03134544A (en) * 1989-10-20 1991-06-07 Nishihara Neo Kogyo Kk Automatic measuring method and apparatus of transparency
US20100188660A1 (en) * 2007-07-17 2010-07-29 Hach Company Spatial frequency optical measurement instrument and method
JP2012193972A (en) * 2011-03-15 2012-10-11 Mitsubishi Rayon Co Ltd Gel concentration measuring chip, method for measuring concentration of gel and gel concentration measuring apparatus

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS55124069A (en) * 1979-03-20 1980-09-24 Fuyo Kaiyo Kaihatsu Kk Measuring method of concentration of suspended matter in water and organic index
JPS613032A (en) * 1984-06-18 1986-01-09 Hitachi Ltd Floc monitor system
JPH03134544A (en) * 1989-10-20 1991-06-07 Nishihara Neo Kogyo Kk Automatic measuring method and apparatus of transparency
US20100188660A1 (en) * 2007-07-17 2010-07-29 Hach Company Spatial frequency optical measurement instrument and method
JP2012193972A (en) * 2011-03-15 2012-10-11 Mitsubishi Rayon Co Ltd Gel concentration measuring chip, method for measuring concentration of gel and gel concentration measuring apparatus

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210018994A (en) * 2018-06-13 2021-02-19 소니 세미컨덕터 솔루션즈 가부시키가이샤 Demodulation circuit, processing method, and processing device
KR102654958B1 (en) 2018-06-13 2024-04-05 소니 세미컨덕터 솔루션즈 가부시키가이샤 Demodulation circuit, processing method, and processing device
CN112530226A (en) * 2020-12-13 2021-03-19 中国船舶重工集团公司七五0试验场 ROV simulation training system for turbid water area auxiliary operation
CN112530226B (en) * 2020-12-13 2023-10-27 中国船舶重工集团公司七五0试验场 ROV simulation training system for auxiliary operation of turbid water area
US11737434B2 (en) 2021-07-19 2023-08-29 X Development Llc Turbidity determination using computer vision
WO2023210702A1 (en) * 2022-04-27 2023-11-02 ソフトバンク株式会社 Information processing program, information processing device, and information processing method
JP2023162785A (en) * 2022-04-27 2023-11-09 ソフトバンク株式会社 Information processing program, information processing device, and information processing method
EP4306937A1 (en) * 2022-07-12 2024-01-17 Maytronics Ltd. Water turbidity evaluation using image sensor

Similar Documents

Publication Publication Date Title
WO2017175261A1 (en) Turbidity detection apparatus, turbidity detection method, and submerged inspection apparatus
KR102596253B1 (en) Gas detection system and method
WO2017110333A1 (en) Surgical information processing apparatus and method
JP4872035B2 (en) Imaging apparatus, captured image distance measuring method, captured image distance measuring program, and recording medium
WO2017205063A1 (en) Systems and methods for surface topography acquisition using laser speckle
JP2015187712A5 (en)
KR101296780B1 (en) Obstacle Detecting system using of laser, and method thereof
US20170112360A1 (en) Observation system
JP6726885B2 (en) Inspection camera, inspection system including the same, and inspection method
CN109691083B (en) Image processing method, image processing apparatus, and imaging apparatus
JP2013210346A (en) Portable laser radar apparatus
US20150156389A1 (en) Strobe device, photography device, and method for processing image
JP2016044995A (en) Colorimetric method, colorimetric device, and electronic apparatus
JP5580220B2 (en) Radiation inspection apparatus and radiation inspection method
EP3989867A1 (en) Medical tool control system, controller, and non-transitory computer readable storage
JP6145728B1 (en) Submerged inspection apparatus and submerged inspection method
JP2010025799A (en) Apparatus for detecting boundary of covering film
JP2009092485A (en) Print solder inspection device
WO2017148423A1 (en) Led searchlight and led searchlight control system
JP2019142714A (en) Image processing device for fork lift
JP2004138737A (en) Imaging device
JP6155472B1 (en) Land / land determination device, land / land determination method, and underwater inspection device
WO2017208288A1 (en) Underwater/overland determination device, underwater/overland determination method, and underwater inspection device
WO2015129136A1 (en) Endoscope device
KR20190129379A (en) Underwater Remote Unmanned System

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2017513830

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16897820

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 16897820

Country of ref document: EP

Kind code of ref document: A1