JP4383237B2 - Self-position detection device, in-furnace inspection method and in-furnace inspection device using the same - Google Patents

Self-position detection device, in-furnace inspection method and in-furnace inspection device using the same Download PDF

Info

Publication number
JP4383237B2
JP4383237B2 JP2004133596A JP2004133596A JP4383237B2 JP 4383237 B2 JP4383237 B2 JP 4383237B2 JP 2004133596 A JP2004133596 A JP 2004133596A JP 2004133596 A JP2004133596 A JP 2004133596A JP 4383237 B2 JP4383237 B2 JP 4383237B2
Authority
JP
Japan
Prior art keywords
self
image
inspection
movement amount
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2004133596A
Other languages
Japanese (ja)
Other versions
JP2005315709A (en
Inventor
岡田  聡
誠 妹尾
健一 大谷
遠藤  洋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2004133596A priority Critical patent/JP4383237B2/en
Publication of JP2005315709A publication Critical patent/JP2005315709A/en
Application granted granted Critical
Publication of JP4383237B2 publication Critical patent/JP4383237B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02EREDUCTION OF GREENHOUSE GAS [GHG] EMISSIONS, RELATED TO ENERGY GENERATION, TRANSMISSION OR DISTRIBUTION
    • Y02E30/00Energy generation of nuclear origin
    • Y02E30/30Nuclear fission reactors

Landscapes

  • Length Measuring Devices With Unspecified Measuring Means (AREA)
  • Monitoring And Testing Of Nuclear Reactors (AREA)

Description

本発明は、移動体の自己位置を自律的に検知する自己位置検知装置及びそれを用いた炉内検査方法並びにと炉内検査装置に係り、特に水中で遊泳移動する移動体など、移動速度が遅い移動体に好適な自己位置検知装置及びそれを用いた炉内検査方法並びに炉内検査装置に関する。   The present invention relates to a self-position detecting device that autonomously detects the self-position of a moving body, an in-furnace inspection method using the same, and an in-furnace inspection apparatus, and particularly, a moving speed such as a moving body that swims in water. The present invention relates to a self-position detecting apparatus suitable for a slow moving body, an in-furnace inspection method using the same, and an in-furnace inspection apparatus.

より具体的には、本発明は、電波を用いたGPSやPHSなどによる位置検知が困難な場所で、自律的に移動体の自己位置を検知する技術に係り、更には、自律的自己位置検知において発生する誤差を抑える手法に関するもので、特に、移動体の速度が遅い場合でも利用できる誤差修正方式を提供するものである。   More specifically, the present invention relates to a technology for autonomously detecting the self-position of a moving object in a place where position detection by GPS or PHS using radio waves is difficult, and further, autonomous self-position detection. In particular, the present invention provides an error correction method that can be used even when the speed of a moving object is low.

更に本発明は、原子炉圧力容器内の構造物の検査装置及び検査方法などにも係わり、このとき、原子炉圧力容器内の構造物に、遠隔操作により点検装置を近づけ、該構造物の検査及び清掃等の予防保全を行う検査装置と検査方法に関するもので、特に、カメラで撮像した画像による目視検査、いわゆるVT検査を効率的に行うための技術に関する。   Furthermore, the present invention relates to an inspection apparatus and an inspection method for a structure in a reactor pressure vessel. At this time, the inspection apparatus is brought close to the structure in the reactor pressure vessel by remote operation, and the structure is inspected. In particular, the present invention relates to an inspection apparatus and an inspection method for performing preventive maintenance such as cleaning, and more particularly, to a technique for efficiently performing a visual inspection based on an image captured by a camera, so-called VT inspection.

原子炉内の構造物、例えばシュラウドなどの炉内構造物の検査に際しては、放射能による被ばくを防ぐため、従来から炉内に純水が満たされている状態のままで、検査用の機器を搭載したROV(遠隔操作ビークル)などと呼ばれている移動体を水中に沈め、検査員がカメラ画像を監視しながら遠隔監視し、対象部位の検査や清掃など実施している。   When inspecting nuclear reactor structures, such as shrouds, in order to prevent exposure to radiation, the inspection equipment must be kept in a state where the reactor has been filled with pure water. A mobile body called ROV (remote control vehicle) is submerged in water, and the inspector remotely monitors the camera image while monitoring and cleaning the target part.

このとき、検査用の機器で撮像した映像を安定化させるため、ガイド用ロープを用いるようにした炉内目視検査装置が従来から提案されている(例えば、特許文献1参照。)。   At this time, an in-furnace visual inspection apparatus using a guide rope has been proposed in order to stabilize an image captured by an inspection device (see, for example, Patent Document 1).

また、原子炉圧力容器内の特定箇所に特化した検査装置としては、原子炉のアニュラス部の検査技術に関して幾つかの提案がされている(例えば、特許文献2、特許文献3参照。)。   In addition, as an inspection apparatus specialized for a specific location in a reactor pressure vessel, several proposals have been made regarding the inspection technique for the annulus portion of the reactor (see, for example, Patent Document 2 and Patent Document 3).

ここで、自己位置の検知を要する場合には慣性センサ(一般的には3軸加速度計と3軸ジャイロを組合せたセンサ)が用いられるが、この場合、検知誤差を抑制する方法として、カルマンフィルタを適用するのが一般的である。   Here, an inertial sensor (generally a sensor combining a three-axis accelerometer and a three-axis gyro) is used when self-position detection is required. In this case, a Kalman filter is used as a method for suppressing detection errors. It is common to apply.

このとき、慣性センサで検出した位置を較正する必要があるが、このため、GPSにより検出した絶対位置を用いるようにした方位検出装置が従来から提案されている(例えば、特許文献4参照。)。なお、この場合、PHSにより絶対位置を検出する方法も適用できる。   At this time, the position detected by the inertial sensor needs to be calibrated. For this reason, an azimuth detecting device that uses an absolute position detected by GPS has been proposed (see, for example, Patent Document 4). . In this case, a method of detecting the absolute position by PHS can also be applied.

また、このとき、停止状態を検出して、慣性速度をリセットするようにした慣性装置も従来から知られている(例えば、特許文献5参照。)。   At this time, an inertial device that detects a stop state and resets the inertial speed has been conventionally known (see, for example, Patent Document 5).

一方、推進器回転速度と慣性センサで検知した速度を、カルマンフィルタ処理することにより誤差を抑えるようにした水中航走体用速度計測装置も従来から提案されている(例えば、特許文献6参照。)。   On the other hand, an underwater vehicle speed measuring device has been proposed in the past in which an error is suppressed by subjecting the propeller rotational speed and the speed detected by the inertial sensor to Kalman filtering (see, for example, Patent Document 6). .

更に、このとき、画像処理によって動きを検知し、慣性センサの動きと相互補正して、姿勢を検知する姿勢位置検出装置も従来から提案されている(例えば、特許文献7参照。)。
特開2003−185783号公報 特開2003−337192号公報 特開2002−286652号公報 特開平6−288776号公報 特開平5−248882号公報 特開平7−270176号公報 特開2000−97637号公報
Further, at this time, a posture position detecting device that detects a posture by image processing and detects the posture by mutually correcting the motion of the inertial sensor has been proposed (see, for example, Patent Document 7).
Japanese Patent Laid-Open No. 2003-185783 JP 2003-337192 A JP 2002-286552 A Japanese Patent Application Laid-Open No. 6-288776 JP-A-5-248882 JP-A-7-270176 JP 2000-97637 A

上記従来技術のうち、まず特許文献1乃至特許文献3で開示された従来技術は、現在位置及び検査対象構造物を監視員が目視により把握するものであり、従って、監視員の負担が大きく、また、ひとたび自己位置を見失ってしまうと、自己位置の探索が困難になるという問題がある。   Among the above-described conventional techniques, the conventional techniques disclosed in Patent Documents 1 to 3 are for the observer to visually grasp the current position and the structure to be inspected, and thus the burden on the observer is large. In addition, once the self-position is lost, it is difficult to search for the self-position.

ここで、特許文献4乃至特許文献7に開示の従来技術では、慣性センサを用いて自己位置を検知し、このときの検知誤差はカルマンフィルタを用いて低減しているので、目視検査に際して監視員が目視により位置を把握する必要がない。   Here, in the conventional techniques disclosed in Patent Documents 4 to 7, the self-position is detected using an inertial sensor, and the detection error at this time is reduced using a Kalman filter. There is no need to grasp the position visually.

しかし、まず、特許文献4により開示されている従来技術は、GPSによる絶対位置検知を前提としているので、屋内などGPS電波が受信できない環境のもとでは適用できないという問題があり、次に、特許文献5により開示されている従来技術は、停止状態の検出に車速センサを用いているので、地上走行体など車輪を備えている場合を除いては適用できないという問題がある。   However, since the prior art disclosed in Patent Document 4 is premised on absolute position detection by GPS, there is a problem that it cannot be applied in an environment where GPS radio waves cannot be received such as indoors. The conventional technique disclosed in Document 5 uses a vehicle speed sensor for detecting a stop state, and therefore has a problem that it cannot be applied except when a wheel such as a ground traveling body is provided.

また、特許文献6により開示されている従来技術の場合、移動体の推進器(スクリュー推進器)の回転速度を用いて慣性センサで検知した移動速度を補正しているので、原子炉内の検査装置のように、航行速度が低速の場合には、推進器の回転速度から正確な航行速度を検出するのが難しく、精度の保持に問題がある。   Moreover, in the case of the prior art disclosed by patent document 6, since the moving speed detected with the inertial sensor is correct | amended using the rotational speed of the propelling device (screw propelling device) of a moving body, the inspection in a nuclear reactor is carried out. When the navigation speed is low as in the apparatus, it is difficult to detect the accurate navigation speed from the rotation speed of the propeller, and there is a problem in maintaining accuracy.

更に、特許文献7により開示されている従来技術では、画像処理によって動きを検知し慣性センサの動きと相互補正して姿勢を検知しているので、最終的に自己の絶対位置が算出できないことと、絶対位置の誤差補正手段を有さないことから、自己位置検知装置としての適用ができないという問題がある。   Furthermore, in the prior art disclosed in Patent Document 7, since the motion is detected by image processing and the posture is detected by mutual correction with the motion of the inertial sensor, the absolute position of itself cannot be calculated in the end. Since there is no absolute position error correction means, there is a problem that it cannot be applied as a self-position detecting device.

本発明は、上記の問題を解決し、GPSやPHS等の電波を用いた絶対位置検知が困難な場所で、高精度に自己位置を検知する技術を提供し、原子炉内検査装置の様に検知対象の移動体速度が遅い場合でも利用ができる検査装置を提供するものである。   The present invention solves the above problems and provides a technique for detecting the self-position with high accuracy in a place where absolute position detection using radio waves such as GPS and PHS is difficult. It is an object of the present invention to provide an inspection apparatus that can be used even when the speed of a moving object to be detected is low.

従って、本発明の目的は、環境を問わず自己位置が自律的に精度良く検出できるようにした自己位置検知装置及びそれを用いた炉内検査方法並びに炉内検査装置を提供することにある。   Accordingly, an object of the present invention is to provide a self-position detecting device capable of autonomously and accurately detecting the self-position regardless of the environment, a furnace inspection method and a furnace inspection apparatus using the same.

上記目的を達成するための第1の発明は、慣性移動量検知手段により移動体の慣性移動量を算出し、該慣性移動量から前記移動体の位置を検出する方式の自己位置検知装置において、前記移動体の前方が視野となるようにして前記移動体に搭載したカメラと、前記カメラにより撮像した画像情報に基づいて前記移動体のカメラ相対移動量を算出するカメラ相対移動量検知手段と、前記慣性移動量により表わされている前記移動体の位置を、前記カメラ相対移動量により表わされている前記移動体の位置により補正する自己位置更新手段とを設け、前記自己位置更新手段が、前記慣性移動量の時間変化から慣性速度偏差を算出する慣性速度標準偏差算出手段と、前記カメラ相対移動量の時間変化から画像速度偏差を算出する画像速度標準偏差算出手段と、前記慣性速度偏差と前記画像速度偏差に基づいてカルマンゲインを更新するゲイン更新手段と、前記ゲイン更新手段の出力に基づいて前記慣性移動量を更新する絶対位置更新手段とを備えていることを特徴とするものである。
According to a first aspect of the present invention for achieving the above object, in the self-position detecting device of the type for calculating the inertial movement amount of the moving body by the inertial movement amount detecting means and detecting the position of the moving body from the inertial movement amount, A camera mounted on the moving body such that the front of the moving body is a field of view; camera relative movement amount detecting means for calculating a camera relative movement amount of the moving body based on image information captured by the camera; the position of the movable body, represented by the inertial movement amount, and a self-location update means for correcting the position of the movable body which is represented by the camera relative movement is provided, said self-location update means An inertial speed standard deviation calculating means for calculating an inertial speed deviation from a time change of the inertial movement amount, and an image speed standard deviation calculation for calculating an image speed deviation from the time change of the camera relative movement amount. It comprises means, and gain updating means for updating the Kalman gain based on the image velocity difference between the inertial speed deviation, an absolute position updating means for updating the inertial movement amount based on the output of the gain update unit It is characterized by this.

次に、上記目的を達成するための第2の発明は、請求項1に記載の自己位置検知装置において、前記慣性移動量検知手段が、加速度を検知する加速度検知手段と、角速度を検知する角速度検知手段と、前記加速度から各軸の速度を算出する軸速度算出手段と、前記角速度から回転角を算出する回転角算出手段とを備えていることを特徴とするものである。
Next, a second invention for achieving the above object is the self-position detection device according to claim 1, wherein the inertial movement amount detection means includes an acceleration detection means for detecting acceleration, and an angular velocity for detecting angular velocity. It comprises a detecting means, an axis speed calculating means for calculating the speed of each axis from the acceleration, and a rotation angle calculating means for calculating a rotation angle from the angular speed .

また、上記目的を達成するための第3の発明は、請求項1に記載の自己位置検知装置において、前記自己位置更新手段が、検知対象物の3次元構造情報が記憶されたマップ記憶手段と、前記絶対位置更新手段で更新された前記検知対象物の自己位置と前記マップ記憶手段から読出した3次元構造情報により干渉を判定する接触判定手段と、前記接触判定手段により干渉ありと判定されたとき、前記自己位置を補正する絶対位置補正手段とを備えていることを特徴とするものである。
According to a third aspect of the invention for achieving the above object, in the self-position detecting device according to claim 1, the self -position updating means includes a map storage means in which the three-dimensional structure information of the detection target is stored. The contact determination unit that determines interference based on the self-position of the detection object updated by the absolute position update unit and the three-dimensional structure information read from the map storage unit, and the contact determination unit determines that there is interference. And an absolute position correcting means for correcting the self position .

更に、上記目的を達成するための第4の発明は、請求項1に記載の自己位置検知装置において、前記移動体が前記カメラの光軸と平行にレーザを照射するマーカレーザ照射手段を備え、前記カメラ相対移動量検知手段が、前記カメラで撮像した画像内における前記レーザ光画像の位置に基づいて、前記カメラから前記画像内で中心に撮像されている物体までの間の距離を算出する画像中心距離算出手段を備えていることを特徴とするものである。
Furthermore, a fourth invention for achieving the above object is the self-position detection device according to claim 1 , wherein the movable body includes marker laser irradiation means for irradiating a laser parallel to the optical axis of the camera, An image center for calculating a distance from the camera to an object imaged at the center in the image based on a position of the laser light image in the image imaged by the camera A distance calculating means is provided.

同じく、上記目的を達成するための第5の発明は、請求項1乃至請求項4に記載の自己位置検知装置の何れかが搭載された炉内検査手段を用いて原子炉内を検査するようにした炉内検査方法において、前記炉内検査手段が、位置姿勢制御手段と該位置姿勢制御手段を操作する遠隔操作手段とを備え、水中を任意に航行可能にした移動体であり、前記原子炉内にある制御棒案内管の何れかを炉心支持板から外して制御棒及び燃料集合体と共に原子炉内から引き上げた後、前記炉内検査手段を、前記制御棒案内管が取り付けられていた炉心支持板の孔から前記炉心支持板下部に挿入して検査を行なうことを特徴とするものである。
Similarly, a fifth invention for achieving the above object is to inspect the inside of the nuclear reactor using the in-core inspection means on which any of the self-position detecting devices according to claims 1 to 4 is mounted. In the in-furnace inspection method , the in- furnace inspection means includes a position / orientation control means and a remote control means for operating the position / orientation control means, and is a moving body capable of arbitrarily navigating underwater. After removing any of the control rod guide tubes in the reactor from the core support plate and pulling them up from the reactor together with the control rods and the fuel assembly, the control rod guide tube was attached to the in-core inspection means. The inspection is performed by inserting into the lower part of the core support plate through the hole of the core support plate .

同じく、上記目的を達成するための第6の発明は、請求項5に記載の炉内検査方法において、前記自己位置検知装置が、前記移動体を前記原子炉内のCRDハウジングの上部に接触させたとき、その位置を当該移動体の基準位置として取り込むものであることを特徴とするものである。
Similarly, according to a sixth aspect of the present invention for achieving the above object, in the in-reactor inspection method according to claim 5 , the self-position detecting device causes the movable body to contact an upper portion of a CRD housing in the reactor. The position is taken in as a reference position of the moving body .

同じく、上記目的を達成するための第7の発明は、請求項1乃至請求項4記載の自己位置検知装置の何れかが搭載された炉内検査手段を用いて原子炉内を検査するようにした炉内検査装置において、前記炉内検査手段が、位置姿勢制御手段と該位置姿勢制御手段を操作する遠隔操作手段とを備え、水中を任意に航行可能にした移動体であり、前記自己位置更新手段が、検査目標経路を入力する検査経路入力手段と、前記自己位置検知装置の出力である自己位置と該検査目標経路とを比較し当面の検査目標を設定する検査目標設定手段と、該自己位置と検査目標を比較し前記位置姿勢制御手段を制御する検査装置自動制御手段とを備えていることを特徴とするものである。
Similarly, a seventh invention for achieving the above object is to inspect the inside of the reactor using the in-reactor inspecting means on which any of the self-position detecting devices according to claims 1 to 4 is mounted. In the in-furnace inspection apparatus, the in- furnace inspection means includes a position / orientation control means and a remote operation means for operating the position / orientation control means, and is a movable body capable of arbitrarily navigating underwater, the self-position An update means, an inspection path input means for inputting an inspection target path, an inspection target setting means for comparing the self position as an output of the self-position detecting device with the inspection target path, and setting an inspection target for the time being, An inspection apparatus automatic control means for comparing the self-position and the inspection target and controlling the position and orientation control means is provided .

第1の本発明によれば、電波が利用出来ない領域や、カメラや超音波発振器等の外部位置検知用インフラを設置出来ない場所においても、慣性センサによる相対位置検知誤差を低減でき、精度の高い絶対自己位置検知が可能になる。
According to the first aspect of the present invention, the relative position detection error due to the inertial sensor can be reduced even in an area where radio waves cannot be used or where an external position detection infrastructure such as a camera or an ultrasonic oscillator cannot be installed. High absolute self-position detection is possible.

更に、第1の本発明によれば、画像の情報と慣性センサの情報を関連付け、慣性センサの相対位置検知誤差を低減できる手段が提供できるので、精度の高い絶対自己位置検知が可能になる。
Furthermore, according to the first aspect of the present invention, since it is possible to provide means capable of associating image information and inertial sensor information and reducing the relative position detection error of the inertial sensor, highly accurate absolute self-position detection is possible.

第2の本発明によれば、更に慣性センサの出力から速度及び位置を算出し、第2の本発明において検出した速度と関連付けているので、第1の発明と同様の効果が得られる。
According to the second aspect of the present invention, since the speed and position are further calculated from the output of the inertial sensor and associated with the speed detected in the second aspect of the present invention, the same effect as the first aspect can be obtained.

第3の本発明によれば、慣性センサ及び画像センサにより検知した自己位置の絶対誤差を補正し、蓄積した位置検知誤差を除去することができるので、第1の発明と同様の効果が得られる。
According to the third aspect of the present invention, since the absolute error of the self-position detected by the inertial sensor and the image sensor can be corrected and the accumulated position detection error can be removed, the same effect as the first aspect can be obtained. .

第4の本発明によれば、単一画像情報のみから物体まで距離を算出することが可能になり、第1の発明と同様の効果が得られる。
According to the fourth aspect of the present invention, the distance from the single image information only to the object can be calculated, and the same effect as in the first aspect can be obtained.

第5の本発明によれば、原子炉内検査において、自己位置を自動で検知することができ、効率的な検査が可能になる。
According to the fifth aspect of the present invention, the self-position can be automatically detected in the in-reactor inspection, and an efficient inspection becomes possible.

第6の本発明によれば、原子炉内での位置の基準点が正しく得られるので、効率的な検査が可能になる。
According to the sixth aspect of the present invention, since the reference point of the position in the nuclear reactor can be obtained correctly, efficient inspection can be performed.

第7の本発明によれば、原子炉内の検査が自動化できるので、作業員の負担が軽減される。 According to the seventh aspect of the present invention, since the inspection in the nuclear reactor can be automated, the burden on the worker is reduced.

以下、本発明による自己位置検知装置及びそれを用いた炉内検査方法並びに炉内検査装置について、図示の実施の形態により詳細に説明する。   Hereinafter, a self-position detecting apparatus according to the present invention, an in-furnace inspection method and an in-furnace inspection apparatus using the same will be described in detail with reference to the illustrated embodiments.

図1は、本発明の一実施形態で、この実施形態は、本発明を原子炉内の目視検査のための炉内検査装置に適用し、本発明による自己位置検知装置を当該検査装置に搭載することにより、検査作業員の負担軽減が実現できるようにしたものであり、このため、図1に示すように、加速度検出手段101と角速度検出手段102、それにカメラ(テレビジョンカメラ)107を備えている。   FIG. 1 shows an embodiment of the present invention. In this embodiment, the present invention is applied to an in-core inspection apparatus for visual inspection in a nuclear reactor, and the self-position detection apparatus according to the present invention is mounted on the inspection apparatus. Thus, the burden on the inspection worker can be reduced. Therefore, as shown in FIG. 1, an acceleration detecting means 101, an angular velocity detecting means 102, and a camera (television camera) 107 are provided. ing.

ここで、まず、加速度検出手段101と角速度検出手段102は、検査装置に働く直線加速度と角速度を検出する働きをし、検出した直線加速度と角速度は慣性センサ信号処理手段103に供給される。   Here, first, the acceleration detection means 101 and the angular velocity detection means 102 function to detect linear acceleration and angular velocity acting on the inspection apparatus, and the detected linear acceleration and angular velocity are supplied to the inertial sensor signal processing means 103.

そこで、慣性センサ信号処理手段103は、これら入力された直線加速度と角速度から慣性移動量IMを算出し、自己位置更新手段104と画像処理手段110に供給する。   Therefore, the inertial sensor signal processing unit 103 calculates the inertial movement amount IM from the input linear acceleration and angular velocity, and supplies them to the self-position updating unit 104 and the image processing unit 110.

一方、カメラ107は、検査装置の前方を撮像視野として撮像動作を行ない、画像情報取得手段108で電子情報化した画像データを画像処理手段110に供給する働きをする。   On the other hand, the camera 107 performs an imaging operation using the front of the inspection apparatus as an imaging field of view, and serves to supply the image data converted into electronic information by the image information acquisition unit 108 to the image processing unit 110.

このとき、レーザマーカ照射手段109を用い、被写体に水平の線状光(マーカレーザ光)を照射し、詳しくは後述するが、これにより距離の計測が得られるようにしてある。   At this time, the laser marker irradiating means 109 is used to irradiate the subject with horizontal linear light (marker laser light), which will be described in detail later.

そこで、この画像データの供給を受けた画像処理手段110は、慣性センサ信号処理手段103で算出された回転角を用い、カメラ相対移動量OMを算出し、それを自己位置検出手段104に供給する。   Therefore, the image processing unit 110 that has received this image data calculates the camera relative movement amount OM using the rotation angle calculated by the inertial sensor signal processing unit 103 and supplies it to the self-position detection unit 104. .

そして、自己位置更新手段104は、これら慣性移動量IMとカメラ相対移動量OMを用いて自己位置を更新し、その結果を、信号伝送手段105を介して絶対位置表示手段106に伝送し、これにより検査装置の位置が検査作業員に把握できるようにする。   Then, the self-position updating unit 104 updates the self-position using the inertial movement amount IM and the camera relative movement amount OM, and transmits the result to the absolute position display unit 106 via the signal transmission unit 105. This makes it possible for the inspection worker to grasp the position of the inspection device.

ここで、慣性センサ信号処理手段103の詳細について説明すると、これに含まれている手段の中で、まず、軸速度算出手段111は、加速度検出手段101から供給される加速度信号からx、y、zの各軸方向の速度(軸速度)を算出する。   Here, the details of the inertial sensor signal processing means 103 will be described. Among the means included in the inertial sensor signal processing means 103, first, the axial speed calculation means 111 determines x, y, and x from the acceleration signal supplied from the acceleration detection means 101. The speed (axis speed) in each axial direction of z is calculated.

次に、回転角算出手段112は、角速度検出手段102から供給される角速度信号からx、y、zの各軸周りの回転角を算出する。そして、慣性移動量算出手段113は、軸速度及び回転角を用いて3次元的な移動量、つまり慣性移動量IMを算出するのである。   Next, the rotation angle calculation unit 112 calculates rotation angles around the x, y, and z axes from the angular velocity signal supplied from the angular velocity detection unit 102. Then, the inertial movement amount calculating means 113 calculates a three-dimensional movement amount, that is, an inertial movement amount IM using the axial speed and the rotation angle.

ここで更に、画像処理手段110の詳細について説明すると、これに含まれている手段の中で、まず、画像中心距離算出手段114は、画像情報取得手段108から供給される画像情報を用い、これから、画像の中心付近にある被写体とカメラの間の距離を算出する。   Here, the details of the image processing means 110 will be described. Among the means included in the image processing means 110, the image center distance calculating means 114 first uses the image information supplied from the image information acquiring means 108, and from now on. The distance between the subject near the center of the image and the camera is calculated.

次に、画像変化量算出手段115は、画像情報と回転角慣性移動量を用い、これらの情報から画像の二次元的な移動量を算出する。そして、カメラ相対移動量算出手段116は、画像と被写体の距離及び画像の二次元的な移動量を用いて、3次元的な移動量、つまりカメラ相対移動量OMを算出するのである。   Next, the image change amount calculation means 115 uses the image information and the rotation angle inertial movement amount, and calculates a two-dimensional movement amount of the image from these information. Then, the camera relative movement amount calculation means 116 calculates a three-dimensional movement amount, that is, a camera relative movement amount OM, using the distance between the image and the subject and the two-dimensional movement amount of the image.

次に、自己位置更新手段104について説明すると、これに含まれている手段の中で、まず、慣性速度算出手段117は、慣性移動量算出手段113で算出された慣性移動量IMを微分して慣性速度を算出する働きをする。そして、その結果は慣性速度標準偏差算出手段119に記録され、ここで所定時刻から現在までの慣性速度の標準偏差が算出される。   Next, the self-position updating unit 104 will be described. Among the units included therein, the inertia velocity calculation unit 117 first differentiates the inertia movement amount IM calculated by the inertia movement amount calculation unit 113. It works to calculate the inertia speed. The result is recorded in the inertia speed standard deviation calculating means 119, where the standard deviation of the inertia speed from a predetermined time to the present is calculated.

ここで、所定時刻とは、例えば炉内検査において、検査装置の移動時と検査時など、使用(運航)形態が変化したと考えられる時点において、任意に設定する時刻のことである。   Here, the predetermined time is a time that is arbitrarily set at a point in time when it is considered that the usage (operation) mode has changed, for example, when the inspection apparatus is moved and during the inspection in the furnace inspection.

同様に、画像速度算出手段118は、カメラ相対移動量算出手段116で算出されたカメラ相対移動量OMを微分して画像速度を算出する働きをする。そして、その結果は画像速度標準偏差算出手段120に記録され、ここで所定時刻から現在までの画像速度の標準偏差が算出される。   Similarly, the image speed calculation unit 118 serves to calculate the image speed by differentiating the camera relative movement amount OM calculated by the camera relative movement amount calculation unit 116. The result is recorded in the image speed standard deviation calculating means 120, where the standard deviation of the image speed from a predetermined time to the present is calculated.

次に、ゲイン更新手段121は、慣性速度標準偏差算出手段119及び画像速度標準偏差算出手段120で算出した標準偏差に基づいてカルマンゲインを更新する働きをし、絶対位置更新手段122は、このカルマンゲインと絶対位置保存手段126に保存された直前の位置に基づいて絶対位置を更新する働きをする。   Next, the gain updating unit 121 functions to update the Kalman gain based on the standard deviation calculated by the inertia velocity standard deviation calculating unit 119 and the image speed standard deviation calculating unit 120, and the absolute position updating unit 122 The absolute position is updated based on the gain and the previous position stored in the absolute position storing means 126.

ここで、自己位置検知を開始したときは、画像表示手段106から初期化手段127に初期化命令が入力され、これにより絶対位置及び回転角の初期化が行われるようになっている。   Here, when self-position detection is started, an initialization command is input from the image display means 106 to the initialization means 127, whereby the absolute position and the rotation angle are initialized.

次に、図1に示した自己位置検知装置を搭載した水中泳動型の炉内検査装置について、図2により説明する。ここで、この図2には炉内検査装置201が示され、これには、まず、慣性センサ部202が設置されており、その中には、加速度センサ203とジャイロ204が内蔵されている。ここで、このときの加速度センサ203とジャイロ204の設置方向については後述する。   Next, an underwater electrophoresis type in-furnace inspection apparatus equipped with the self-position detection apparatus shown in FIG. 1 will be described with reference to FIG. Here, FIG. 2 shows an in-furnace inspection apparatus 201, in which an inertial sensor unit 202 is first installed, in which an acceleration sensor 203 and a gyro 204 are built. Here, the installation direction of the acceleration sensor 203 and the gyro 204 at this time will be described later.

次に、この炉内検査装置201には、画像取込部205が設置してあり、更にカメラ206(図1の107に相当)とマーカレーザ207(図1の109に相当)が設置してあって、これらは画像取込部205に接続され、これによりカメラ206で撮像した画像信号が画像取込部205に取り込まれ、同時にマーカレーザ207が駆動されるようになっている。   Next, in this in-furnace inspection apparatus 201, an image capturing unit 205 is installed, and a camera 206 (corresponding to 107 in FIG. 1) and a marker laser 207 (corresponding to 109 in FIG. 1) are also installed. These are connected to the image capturing unit 205, whereby the image signal captured by the camera 206 is captured by the image capturing unit 205, and at the same time, the marker laser 207 is driven.

また、この炉内検査装置201には、姿勢位置制御部208と、これに接続された3方向のスラスタ209が設置してあり、これにより炉内検査装置201の姿勢と位置が制御されるようになっている。   Further, the in-furnace inspection apparatus 201 is provided with an attitude position control unit 208 and a three-direction thruster 209 connected thereto, so that the attitude and position of the in-furnace inspection apparatus 201 are controlled. It has become.

そして、この炉内検査装置201には、更にROV側信号伝送部210が設置され、これに慣性センサ部202、画像取込み部205及び姿勢位置制御部208が接続されている。   The in-furnace inspection apparatus 201 is further provided with a ROV-side signal transmission unit 210, to which an inertial sensor unit 202, an image capturing unit 205, and an attitude position control unit 208 are connected.

このとき、ROV側信号伝送部210には信号伝送線211が接続してあり、これにより、ROV側信号伝送部210は、制御装置側信号伝送部212を介して制御装置213に接続されている。   At this time, the signal transmission line 211 is connected to the ROV side signal transmission unit 210, whereby the ROV side signal transmission unit 210 is connected to the control device 213 via the control device side signal transmission unit 212. .

従って、炉内検査装置201を検査対象となる原子炉内に移し、水中泳動型のROVとして水中に遊泳させた後、この炉内検査装置201は、原子炉外にある制御装置213から信号伝送線211を介して遠隔制御されることになる。   Therefore, after moving the in-core inspection device 201 into the reactor to be inspected and swimming in water as an underwater electrophoresis ROV, the in-core inspection device 201 transmits a signal from the control device 213 outside the reactor. It will be remotely controlled via line 211.

次に、慣性センサ部202に内蔵されている加速度センサ203とジャイロ204の配置方向について、図3により説明する。   Next, the arrangement direction of the acceleration sensor 203 and the gyro 204 built in the inertial sensor unit 202 will be described with reference to FIG.

いま、この図3に示す三次元の各軸について、X軸を炉内検査装置201の前後方向とし、Y軸を左右方向、そしてZ軸を上下方向とする。そうすると、この場合、図示のように、X軸回りがロール角θR でY軸回りがピッチ角θP、そしてZ軸回りがヨー角θY となる。 Now, for each of the three-dimensional axes shown in FIG. 3, the X-axis is the front-rear direction of the in-furnace inspection apparatus 201, the Y-axis is the left-right direction, and the Z-axis is the up-down direction. Then, in this case, as shown in the figure, the roll angle θ R is around the X axis, the pitch angle θ P is around the Y axis, and the yaw angle θ Y is around the Z axis.

そして、まず、3軸加速度センサ301は、それによる3方向の検出軸が各々X軸とY軸、それにZ軸に平行になるようにして配置する。そうすると、この3軸加速度センサ301からは、X軸とY軸、それにZ軸の3種の軸方向加速度が検出されてくる。   First, the triaxial acceleration sensor 301 is arranged such that the detection axes in the three directions are parallel to the X axis, the Y axis, and the Z axis, respectively. Then, the three-axis acceleration sensor 301 detects three types of axial accelerations of the X axis, the Y axis, and the Z axis.

次に、ジャイロ302、303、304は、各々の検出軸がX軸とY軸、それにZ軸に平行になるようにして配置する。そうすると、これらジャイロ302、303、304からは、各々X軸、Y軸、Z軸のそれぞれの軸周りの角速度が検出されてくることになる。   Next, the gyros 302, 303, and 304 are arranged so that each detection axis is parallel to the X axis, the Y axis, and the Z axis. Then, the angular velocities around the X-axis, Y-axis, and Z-axis are detected from these gyros 302, 303, and 304, respectively.

そこで、図1の慣性センサ信号処理手段103は、加速度検出手段101(図3では3軸加速度センサ301となる)で検知した3軸方向の加速度信号を、軸速度算出手段111により時間積分して各軸方向の速度を算出し、角速度検出手段102(図3ではジャイロ302、303、304となる)で検知した3軸周りの角速度は、回転角算出手段112により時間積分して各軸周りの回転角を算出する。   Therefore, the inertial sensor signal processing means 103 in FIG. 1 integrates the acceleration signal in the three-axis direction detected by the acceleration detection means 101 (which is the three-axis acceleration sensor 301 in FIG. 3) with time integration by the axial speed calculation means 111. The velocity in each axis direction is calculated, and the angular velocities around the three axes detected by the angular velocity detection means 102 (which are gyroscopes 302, 303, and 304 in FIG. 3) are time-integrated by the rotation angle calculation means 112 and are Calculate the rotation angle.

そして、これらの各軸方向の速度と角軸周りの回転角から、慣性移動量算出手段113により相対的な移動量を算出するのである。   Then, the relative movement amount is calculated by the inertial movement amount calculation means 113 from the speed in each axial direction and the rotation angle around the angular axis.

次に、絶対位置表示手段106について、図4を用いて説明すると、まず、これには表示装置が備えられていて、その表示画面401には、操作部402と水平位置表示部403、垂直位置表示部404、それにカメラ画像表示部405の各表示領域が映し出せるようになっている。なお、この実施形態では、更にそれらの履歴を記録し再生する機能が備えられている。   Next, the absolute position display means 106 will be described with reference to FIG. 4. First, it is provided with a display device, and the display screen 401 includes an operation unit 402, a horizontal position display unit 403, and a vertical position. Each display area of the display unit 404 and the camera image display unit 405 can be displayed. In this embodiment, a function for recording and reproducing these histories is further provided.

ここで、操作部402には、監視と履歴再生の切替えや、水平位置表示部403と垂直位置表示部404の表示サイズの切替え、カメラの切替え、目標設定、目標表示その他のアイコン表示と、報知のための表示がなされる。   Here, the operation unit 402 includes monitoring and history reproduction switching, display size switching between the horizontal position display unit 403 and vertical position display unit 404, camera switching, target setting, target display, and other icon displays, and notification. The display for is made.

次に、この実施形態の動作について、図5により説明すると、この図5は処理の全体を表わした流れ図であり、ここでROV位置検知を開始したら(ステップ1)、この後、まず、初期位置と初期方位を入力する(ステップ2)。これは、図1の初期化手段127からの初期化命令によるもので、図6で後述する方法により絶対位置及び回転角を初期化する。   Next, the operation of this embodiment will be described with reference to FIG. 5. FIG. 5 is a flowchart showing the entire process. When ROV position detection is started (step 1), first, the initial position is set. And an initial orientation are input (step 2). This is due to the initialization command from the initialization means 127 of FIG. 1, and the absolute position and rotation angle are initialized by the method described later in FIG.

次いで、終了命令が入力されるまで(ステップ3)、慣性移動量算出処理(ステップ4)、カメラ相対移動量算出処理(ステップ5)、絶対位置更新処理(ステップ6)、絶対位置出力(ステップ7)の各処理を繰り返す。そして、終了命令が入力されたらROV位置検知を終了するのである(ステップ8)。   Next, until an end command is input (step 3), an inertial movement amount calculation process (step 4), a camera relative movement amount calculation process (step 5), an absolute position update process (step 6), and an absolute position output (step 7). ) Repeat each process. When the end command is input, the ROV position detection is ended (step 8).

次に、図5のステップ2における初期位置を与える方法について、図6を用いて説明すると、この図6は原子炉内の構造を簡略化して示したもので、この例では、下鏡601上にCRDスタブ602とCRDハウジング603が設置され、その上に制御棒案内管604が設置されており、ここで、制御棒案内管604は、炉心支持板605に設けてある孔(設置孔)から挿入され、CRDハウジング603に固定される。   Next, the method for giving the initial position in step 2 of FIG. 5 will be described with reference to FIG. 6. This FIG. 6 shows a simplified structure inside the nuclear reactor. The CRD stub 602 and the CRD housing 603 are installed on the control rod guide tube 604, and the control rod guide tube 604 is inserted into the core support plate 605 from a hole (installation hole). Inserted and fixed to the CRD housing 603.

そして、この実施形態による炉内検査装置607(図2では201)は、予め1本の制御棒案内管604を引き抜いておき、その孔606から挿入し、CRDハウジング上に一旦、停止させる。そして、このとき停止させた位置を初期位置として与えるのである。   The in-furnace inspection apparatus 607 (201 in FIG. 2) according to this embodiment pulls out one control rod guide tube 604 in advance, inserts it through the hole 606, and temporarily stops it on the CRD housing. Then, the position stopped at this time is given as the initial position.

この実施形態では、初期位置の3次元座標を検査の都度、操作者(検査作業を行なう人員)が入力することを想定しているが、予め初期位置の3次元座標をメモリしておき、初期化命令に従ってその位置を読み出して与えるようにしても良い。   In this embodiment, it is assumed that the operator (the person who performs the inspection work) inputs the three-dimensional coordinates of the initial position every time the inspection is performed. The position may be read and given in accordance with the conversion instruction.

次に、図5のステップ2における初期方位を与える方法について、図7を用いて説明する。ここで、この図7は、原子炉の底部を上部から見た簡略図で、炉心支持板701(図6の605)に開けられている制御棒案内管設置孔702には制御棒案内管703(図6の604)が設置されているので、炉内検査装置705(図6の607)は制御棒案内管703が引き抜かれている孔704(図6の606)から挿入してゆく。   Next, a method for giving an initial orientation in step 2 of FIG. 5 will be described with reference to FIG. Here, FIG. 7 is a simplified view of the bottom of the reactor as viewed from above, and the control rod guide tube 703 is provided in the control rod guide tube installation hole 702 opened in the core support plate 701 (605 in FIG. 6). Since (604 in FIG. 6) is installed, the in-furnace inspection device 705 (607 in FIG. 6) is inserted through the hole 704 (606 in FIG. 6) from which the control rod guide tube 703 is pulled out.

このとき作業者は、上部から観察すると共に、画像中心距離算出手段114の出力を監視し、その値が最小になるようにスラスタ209(図2)で炉内検査装置707の姿勢方位を調整する。そして、画像中心距離算出手段114の出力が最小になったとき回転角を初期化し、位置検知を始めるのである。   At this time, the operator observes from above and monitors the output of the image center distance calculation means 114, and adjusts the attitude direction of the in-core inspection device 707 with the thruster 209 (FIG. 2) so that the value is minimized. . Then, when the output of the image center distance calculating means 114 becomes the minimum, the rotation angle is initialized and the position detection is started.

なお、この初期回転角を与える手法には、炉内検査装置607に取付られているカメラで前方を監視し、直近の制御棒案内管、例えば制御棒案内管706を表示面で目視し、それが正面になるように姿勢方位を制御する方法もある。   The method for giving the initial rotation angle is to monitor the front with a camera attached to the in-furnace inspection device 607 and visually check the nearest control rod guide tube, for example, the control rod guide tube 706 on the display surface. There is also a method of controlling the posture direction so that is in front.

次に、図5のステップ4における慣性移動量算出処理について、図8を用いて詳述する。ここで、まずステップ1で処理を開始したら、初めに加速度信号、角速度信号が入力される(ステップ2)。次に、3軸それぞれについて、ステップ4から5の手順で、回転角を算出する(ステップ3)。   Next, the inertial movement amount calculation processing in step 4 of FIG. 5 will be described in detail with reference to FIG. Here, when processing is first started in step 1, first, an acceleration signal and an angular velocity signal are input (step 2). Next, the rotation angle is calculated for each of the three axes by the procedure from Step 4 to Step 5 (Step 3).

まず、角速度信号からオフセット電圧を減ずる(ステップ4)。このオフセット電圧は、通常、ジャイロ固有のスペックとして一定値が示されているが、この実施形態では、ローパスフィルタを用いて角速度信号から直流成分を抽出し、それを基準電圧とする。   First, the offset voltage is subtracted from the angular velocity signal (step 4). This offset voltage is normally shown as a constant value as a gyro-specific spec. In this embodiment, a DC component is extracted from an angular velocity signal using a low-pass filter, and this is used as a reference voltage.

次に、この角速度信号からオフセット電圧を減じた信号を積分し、自己の姿勢角(θR、θP、θY)を検知すると共に、前回更新時からの差分として、単位時間回転角(ωR、ωP、ωY)を算出する(ステップ5)。次に、この姿勢角(θR、θP、θY)を用い、(1)式により、重力方向の単位ベクトル(gx、gy、gz)を自己座標系で表現する(ステップ7)。

Figure 0004383237
Next, the signal obtained by subtracting the offset voltage from this angular velocity signal is integrated to detect its posture angle (θ R , θ P , θ Y ), and the unit time rotation angle (ω R , ω P , ω Y ) are calculated (step 5). Next, using the posture angles (θ R , θ P , θ Y ), the unit vector (g x , g y , g z ) in the gravity direction is expressed in the self-coordinate system by the equation (1) (step 7). ).
Figure 0004383237

次に、加速度データを用い、ステップ8からステップ10の処理を実行して、各軸の慣性移動量を算出する(ステップ7)。このため、まず、測定した加速度データ(Ax、Ay、Az)の基本処理を実行し、必要な加速度信号(ACx、ACy、ACz)を抽出する。 Next, using the acceleration data, the processing from step 8 to step 10 is executed to calculate the inertial movement amount of each axis (step 7). Therefore, first, basic processing of the measured acceleration data (A x , A y , A z ) is executed, and necessary acceleration signals (AC x , AC y , AC z ) are extracted.

このとき、各軸のセンサに固有のゲインをGx、Gy、Gz、同じくオフセットをVox、Voy、Vozとし、且つ、重力加速度をGVとすると、(2)式となる。

Figure 0004383237
At this time, if the gains inherent to the sensors of the respective axes are G x , G y , G z , and the offsets are Vo x , Vo y , Vo z , and the gravitational acceleration is GV, equation (2) is obtained.
Figure 0004383237

そこで、この(2)式により算出した各軸の加速度を積分し、軸速度を算出する(ステップ9)。但し、直前の時間のカメラ相対移動量(図9のステップ9で後述)がゼロ、つまりカメラが移動していないと判定されたときは、このステップ9における軸速度は、全軸ともゼロとする。   Therefore, the acceleration of each axis calculated by the equation (2) is integrated to calculate the axis speed (step 9). However, if it is determined that the camera relative movement amount (described later in step 9 in FIG. 9) at the previous time is zero, that is, it is determined that the camera is not moving, the axis speed in this step 9 is zero for all axes. .

これにより得られた各軸の軸速度を積分し、慣性移動量を算出する(ステップ10)。最後に、慣性移動量及び単位時間回転角を出力し(ステップ11)、処理を終了するのである(ステップ12)。   By integrating the obtained shaft velocities of the respective axes, an inertial movement amount is calculated (step 10). Finally, the amount of inertial movement and the unit time rotation angle are output (step 11), and the process is terminated (step 12).

次に、図5のステップ5におけるカメラ相対移動量算出処理について、図9を用いて詳述する。処理が開始されたら(ステップ1)、初めにカメラ画像が入力される(ステップ2)。次にステップ4からステップ7の処理により、画像中心距離を算出する(ステップ3)。なお、画像中心距離の算出方法については、図10を用いて後述する。   Next, the camera relative movement amount calculation processing in step 5 of FIG. 5 will be described in detail with reference to FIG. When the process is started (step 1), a camera image is input first (step 2). Next, the image center distance is calculated by the processing from step 4 to step 7 (step 3). A method for calculating the image center distance will be described later with reference to FIG.

次に、画像変化量算出処理として、ステップ8からステップ20の処理により、画像の二次元シフト量を算出する(ステップ7)。なお、画像変化量の算出方法については、図11を用いて後述する。   Next, as the image change amount calculation processing, the two-dimensional shift amount of the image is calculated by the processing from step 8 to step 20 (step 7). A method for calculating the image change amount will be described later with reference to FIG.

次いで、画像中心距離及び画像変化量を用いて、画像情報からの相対移動量を算出し(ステップ21)、その結果を出力して(ステップ22)、終了する(ステップ23)。   Next, using the image center distance and the image change amount, a relative movement amount from the image information is calculated (step 21), the result is output (step 22), and the process ends (step 23).

ここで、図9のステップ3における画像中心距離算出処理について、図10を用いて詳述する。この処理は、カメラ1001(図2の206に相当)による撮像視野の中心付近にある対象物とカメラ間の距離を算出するもので、このため、まず、カメラ1001とマーカレーザ光源1002(図2の207に相当)を距離d離して平行に設置し、測定対象物1003に照射されたマーカレーザ光1004の位置を分析し、距離Lを求めるのである。   Here, the image center distance calculation processing in step 3 of FIG. 9 will be described in detail with reference to FIG. This process calculates the distance between the camera 1001 (corresponding to 206 in FIG. 2) and the object in the vicinity of the center of the imaging field. For this reason, first, the camera 1001 and the marker laser light source 1002 (FIG. 2) are calculated. (Corresponding to 207) at a distance d in parallel, and the position of the marker laser beam 1004 irradiated on the measuring object 1003 is analyzed to determine the distance L.

すなわち、図10において、得られたカメラ画像1005の中で、マーカレーザ光による画像1006とカメラ画像のY軸方向中心線1007の間の画素数1008をpic1とし、画像1005のY軸方向の画素数の半値1009をpic2とし、カメラ1001のY方向の視野角をαとすると、カメラ1001から対象物1003までの距離Lは(3)式により算出できる。

Figure 0004383237
That is, in FIG. 10, in the obtained camera image 1005, the number of pixels 1008 between the image 1006 by the marker laser beam and the center line 1007 in the Y-axis direction of the camera image is pic1, and the number of pixels in the Y-axis direction of the image 1005 The distance L from the camera 1001 to the object 1003 can be calculated by the equation (3) where the half value 1009 of the camera is pic2 and the viewing angle in the Y direction of the camera 1001 is α.
Figure 0004383237

そこで、ステップ3においては、レーザライン(マーカレーザ光による画像1006)が写り込んだ画像を二値化し(ステップ4)、画像中心とレーザライン間の距離を検出する(ステップ5)。そして、(3)式を用いて対象物とカメラ間の距離Lを算出するのである。   Therefore, in step 3, the image in which the laser line (image 1006 by the marker laser beam) is reflected is binarized (step 4), and the distance between the image center and the laser line is detected (step 5). Then, the distance L between the object and the camera is calculated using equation (3).

次に、画像変化量算出処理として、画像と平行面の移動量を算出する方法を、図11を用いて詳述する。いま、現在時刻をiとして、直前の時刻i−1のウィンドウ画像1101を読み込むと、その中には対象物1102が写っている。   Next, as an image change amount calculation process, a method for calculating the amount of movement between the image and the parallel plane will be described in detail with reference to FIG. Now, assuming that the current time is i and reading the window image 1101 at the immediately preceding time i-1, the object 1102 is shown in the window image 1101.

次に、現在の全画像1103の中から、中心部分1104を切出し、現時刻のウィンドウ画像1105とする。そして、時刻iと、直前の時刻i−1のウィンドウ画像の二次元相互相関を求めると、同一物である対象物1102と対象物1106のずれに応じたシフト量(ξ、η)を算出することができる。   Next, the central portion 1104 is cut out from all the current images 1103 to obtain a window image 1105 at the current time. When the two-dimensional cross-correlation between the window image at time i and the immediately preceding time i−1 is obtained, a shift amount (ξ, η) corresponding to the difference between the object 1102 and the object 1106 that are the same object is calculated. be able to.

このときの計算手順について、図8のステップ8からステップ20に従って説明する。まず、直前のウィンドウ画像Ii−1、現在の画像を入力する(ステップ8、9)。ここにおける現在の画像は、自己位置の変化だけではなく、その他、自己の姿勢変化の影響も含まれているため、慣性センサで検知した姿勢角を用いて、この影響を補正する(ステップ10)。   The calculation procedure at this time will be described according to Step 8 to Step 20 in FIG. First, the previous window image Ii-1 and the current image are input (steps 8 and 9). Since the current image here includes not only the change in the self position but also the influence of the change in the posture of the self, the influence is corrected using the posture angle detected by the inertial sensor (step 10). .

まず、姿勢角(θR、θP、θY)を入力し(ステップ11)、それと直前の回転角の差分を回転角変化量(ωR、ωP、ωY)として算出する(ステップ12)。ここで、図2の実施形態の場合、カメラ206の中心軸はX軸と一致させてあるため、画像の回転角変化量は、X軸周りの回転角変化量、すなわちωR となる。 First, posture angles (θ R , θ P , θ Y ) are input (step 11), and the difference between the posture angles and the immediately preceding rotation angle is calculated as a rotation angle change amount (ω R , ω P , ω Y ) (step 12). ). Here, in the embodiment of FIG. 2, since the central axis of the camera 206 coincides with the X axis, the rotation angle change amount of the image is the rotation angle change amount around the X axis, that is, ω R.

そこで、画像の任意点の座標を(X、Y)とすると、回転後の座標(X’、Y’)は次の(4)式で算出される。

Figure 0004383237
Therefore, if the coordinates of an arbitrary point of the image are (X, Y), the coordinates (X ′, Y ′) after rotation are calculated by the following equation (4).
Figure 0004383237

次に、この(4)式を用いて画像全体を回転させる(ステップ13)。次に、Y軸回り、Z軸周りの回転の影響を補正するのであるが、このときY軸回りとZ軸周りの回転(ωP、ωY)は、画像上では夫々垂直方向、水平方向の平行移動として近似することができる。 Next, the entire image is rotated using the equation (4) (step 13). Next, the effects of rotation around the Y axis and around the Z axis are corrected. At this time, the rotation around the Y axis and around the Z axis (ω P , ω Y ) is vertical and horizontal on the image, respectively. It can be approximated as a parallel movement.

すなわち、ここで平行移動前の座標を(X’、Y’)、平行移動後の座標を(X”、Y”)とすると、これらは、(3)式で算出した対象物までの距離Lから、(5)式により近似出来る。

Figure 0004383237
That is, if the coordinates before translation are (X ′, Y ′) and the coordinates after translation are (X ″, Y ″), these are the distances L to the object calculated by equation (3). Therefore, it can be approximated by equation (5).
Figure 0004383237

そこで、この(5)式を用いて画像全体をシフトし、姿勢角の補正を完了する(ステップ14)。次に、設定した範囲(ξ1→ξ2、η1→η2)において二次元的に画像をシフトし、二次元相互相関係数を算出する処理を繰り返す(ステップ15)。   Therefore, the entire image is shifted using the equation (5) to complete the correction of the posture angle (step 14). Next, the process of shifting the image two-dimensionally within the set ranges (ξ1 → ξ2, η1 → η2) and calculating the two-dimensional cross-correlation coefficient is repeated (step 15).

ここで、ξ及びηは、X方向、Y方向の夫々の画素の移動数である。そこで、まず、画像を(ξ、η)だけシフトし(ステップ16)、中心部分のウィンドウIiを切出す(ステップ17)。   Here, ξ and η are the movement numbers of the respective pixels in the X direction and the Y direction. Therefore, first, the image is shifted by (ξ, η) (step 16), and the window Ii in the central portion is cut out (step 17).

そして、直前のウィンドウIi−1と、現在のIiの画像に関して、夫々平均強度<Ii−1>、<Ii>を算出し(ステップ18)、これらを用い、(6)式により相互相関係数C(ξ、η)を算出する(ステップ19)。このときの(6)式における(j、k)はウィンドウ内の座標を示す。

Figure 0004383237
Then, the average intensities <Ii-1> and <Ii> are calculated for the immediately preceding window Ii-1 and the current Ii image (step 18), and these are used to calculate the cross-correlation coefficient according to equation (6). C (ξ, η) is calculated (step 19). In this case, (j, k) in the equation (6) indicates coordinates in the window.
Figure 0004383237

このように、(6)式を用い、設定した範囲(ξ1→ξ2、η1→η2)の全ての相互相関係数C(ξ、η)を求め、C(ξ、η)が最小となる(ξ、η)を、画像変化量、すなわち画像の中心が平行移動した量として算出する(ステップ20)。   Thus, using equation (6), all cross-correlation coefficients C (ξ, η) in the set ranges (ξ1 → ξ2, η1 → η2) are obtained, and C (ξ, η) is minimized ( ξ, η) is calculated as an image change amount, that is, an amount of translation of the center of the image (step 20).

次に、こうして算出した画像の平行移動量から、カメラの光軸に対する垂直面内の平行移動量を算出する。この場合、図10に示した画像の縦方向の画素数の半値pic2、カメラの視野角α、それにステップ6で算出したカメラと画像中心対象物の間の距離Lを用い、(7)式により、カメラの平行移動量(ΔXP、ΔYP)を算出する(ステップ21)。

Figure 0004383237
Next, the amount of translation in the plane perpendicular to the optical axis of the camera is calculated from the amount of translation of the image thus calculated. In this case, using the half-value pic2 of the number of pixels in the vertical direction of the image shown in FIG. 10, the viewing angle α of the camera, and the distance L between the camera and the image center object calculated in step 6, Then, the amount of parallel movement (ΔXP, ΔYP) of the camera is calculated (step 21).
Figure 0004383237

更に、ステップ6で求めた距離Lの差分から、カメラと画像中心の対象物の間の距離の変化量、すなわちカメラの光軸方向の移動量ΔLを計算し、3次元的な自己位置変化量を、ステップ21で求めた変化量との二乗平均から、(8)式によりカメラ相対移動量ΔPとして算出する(ステップ22)。

Figure 0004383237
Further, the amount of change in the distance between the camera and the object at the center of the image, that is, the amount of movement ΔL in the optical axis direction of the camera is calculated from the difference in the distance L obtained in step 6, and the three-dimensional self-position change amount Is calculated as a camera relative movement amount ΔP from equation (8) based on the mean square with the amount of change obtained in step 21 (step 22).
Figure 0004383237

そして、その結果を出力し(ステップ23)、処理を終了する(ステップ24)のである。   Then, the result is output (step 23), and the process is terminated (step 24).

次に、図5のステップ6における、絶対位置更新処理の流れについて、図12を用いて詳述する。処理が開始されたら(ステップ1)、ステップ3からステップ5により慣性速度標準偏差を算出する(ステップ2)。   Next, the flow of the absolute position update process in step 6 of FIG. 5 will be described in detail with reference to FIG. When the process is started (step 1), the inertia speed standard deviation is calculated from step 3 to step 5 (step 2).

まず、慣性移動量を取り込み(ステップ3)、直前の値との差分を取り、慣性速度とする(ステップ4)。このとき、この値は初期状態から蓄積しておき、標準偏差を順次更新していく(ステップ5)。そして、同様な処理により、ステップ7からステップ9により画像速度標準偏差を算出する(ステップ6)。   First, the amount of inertial movement is taken (step 3), and the difference from the previous value is taken to obtain the inertial velocity (step 4). At this time, this value is accumulated from the initial state, and the standard deviation is sequentially updated (step 5). Then, by the same process, the image speed standard deviation is calculated from step 7 to step 9 (step 6).

次に、カルマンゲインを以下の方法で更新する(ステップ10)。まず、(9)式で表わされる運動方程式及び(10)式で表わされる観測方程式を構築する。

Figure 0004383237
Figure 0004383237
Next, the Kalman gain is updated by the following method (step 10). First, the equation of motion represented by equation (9) and the observation equation represented by equation (10) are constructed.
Figure 0004383237
Figure 0004383237

ここで、Xkは3次元の自己位置を表わすが、ukは慣性センサからの入力で、(11)式に示すように、慣性移動量(Px、Py、Pz)と、単位時間回転角(ωR、ωP、ωY)を要素とするベクトルである。

Figure 0004383237
Here, Xk represents a three-dimensional self-position, uk is an input from the inertial sensor, and as shown in the equation (11), the inertial movement amount ( Px , Py , Pz ) and the unit time rotation It is a vector whose elements are angles (ω R , ω P , ω Y ).
Figure 0004383237

ここで、Ykは画像情報から求めた3次元位置を表わすが、A、B、Cは、これらの情報を関連付ける観測行列であり、予め、本発明の検査装置を用いて決定しておく。   Here, Yk represents the three-dimensional position obtained from the image information, and A, B, and C are observation matrices for associating these pieces of information, and are determined in advance using the inspection apparatus of the present invention.

そして、ここに示したGkとHkがカルマンゲインで、これは次の(12)式により算出する。なお、この(12)式中のUとWは、ステップ5及びステップ9で算出した慣性速度標準偏差及び画像速度標準偏差である。

Figure 0004383237
Gk and Hk shown here are Kalman gains, which are calculated by the following equation (12). Note that U and W in the equation (12) are the inertia velocity standard deviation and the image velocity standard deviation calculated in Step 5 and Step 9, respectively.
Figure 0004383237

そこで、次に、いま算出した(更新した)カルマンゲインGk及びHkと、直前の絶対位置Xk−1、ukを用い、(13)式により絶対位置を算出し更新する(ステップ11)。

Figure 0004383237
Therefore, next, the Kalman gains Gk and Hk calculated (updated) and the immediately preceding absolute positions Xk−1 and uk are used to calculate and update the absolute position according to the equation (13) (step 11).
Figure 0004383237

この後、いま更新した自己位置により接触を判定し、構造物と干渉した場合には絶対位置を補正する(ステップ12)。すなわち、以下に説明するように、ステップ13で非接触と判定されるまで、ステップ14からステップ23による処理を繰り返えすのである。   Thereafter, contact is determined based on the updated self-position, and if it interferes with the structure, the absolute position is corrected (step 12). That is, as will be described below, the processing from step 14 to step 23 is repeated until it is determined that contact is not made at step 13.

初めに、ステップ11で更新した絶対位置の周囲のN点で接触判定をする(ステップ14)。このN点は、中心位置に対する相対位置(δx、δy、δz)として、次の式(14)に予め任意に設定しておく。   First, contact determination is performed at N points around the absolute position updated in step 11 (step 14). The N point is arbitrarily set in advance in the following equation (14) as a relative position (δx, δy, δz) with respect to the center position.

このとき、(X0、Y0、Z0)は搭載機器の中心座標であり、ステップ11で更新される座標のことで、これに対して周囲点(Xi、Yi、Zi)を次の(14)式で定義する。

Figure 0004383237
At this time, (X0, Y0, Z0) are the center coordinates of the mounted device, and are the coordinates updated in step 11, and the surrounding point (Xi, Yi, Zi) is expressed by the following equation (14) Defined in
Figure 0004383237

次に、予め記憶してある構造物の3次元ビットマップデータを呼び出す。この処理は、ステップ15で算出した干渉チェック点において構造物の有無を確認するものであり、ステップ17において1か0の戻り値が得られる。そして、戻り値が0であれば非接触、1であれば接触と判定するのてある。   Next, the three-dimensional bitmap data of the structure stored in advance is called up. In this process, the presence or absence of a structure is confirmed at the interference check point calculated in step 15, and a return value of 1 or 0 is obtained in step 17. If the return value is 0, it is determined to be non-contact and if it is 1, it is determined to be contact.

この判定をN個の全周囲点で行い、何れの点でも接触と判定されなくなったら接触判定・絶対位置補正処理を完了する。一方、何れかの点で接触と判定されていれば、ステップ21からステップ23までの処理後、再度、ステップ14からステップ19の処理を行うことになる。   This determination is performed at all N surrounding points, and when it is determined that contact is not made at any point, the contact determination / absolute position correction processing is completed. On the other hand, if contact is determined at any point, after the processing from step 21 to step 23, the processing from step 14 to step 19 is performed again.

まず、絶対位置を更新する前の位置、つまりステップ11で更新する前の位置に戻す(ステップ21)。その上で、Z軸回りの回転角θY を搭載機器の移動方向に、一定角δθarr 分を補正し(ステップ22)、再度、ステップ11と同等の処理により絶対位置を更新する(ステップ23)のである。 First, the absolute position is returned to the position before updating, that is, the position before updating in step 11 (step 21). Then, the rotation angle θ Y about the Z axis is corrected by a fixed angle δθ arr in the movement direction of the mounted device (step 22), and the absolute position is updated again by the same process as step 11 (step 23). ).

こうして接触判定・絶対位置補正処理したら、この後は絶対値を保存し(ステップ24)、更新処理を終了する(ステップ25)。   After the contact determination / absolute position correction process is performed in this way, the absolute value is stored thereafter (step 24), and the update process is terminated (step 25).

なお、ステップ21からステップ23の補正方式は、補正量が最も小さくなる範囲で、且つ構造物と干渉しない位置に移動させる方法であれば、他の方法でも適用できる。   Note that the correction method from step 21 to step 23 can be applied by other methods as long as the correction amount is within a minimum range and is moved to a position where it does not interfere with the structure.

例えば、慣性移動量を保持し、干渉しなくなる範囲で方位を最小限回転させ、補正した回転角の補正履歴を記憶しておき、角度補正の平均値から回転角の系統誤差を算出し、回転角そのものを補正する方法もあり、この方法を適用しても良い。   For example, hold the amount of inertia movement, rotate the azimuth to the minimum in a range where interference does not occur, store the correction history of the corrected rotation angle, calculate the system error of the rotation angle from the average value of angle correction, and rotate There is also a method of correcting the corner itself, and this method may be applied.

従って、以上に説明した一実施形態によれば、慣性センサ及び画像情報を用いてカルマンフィルタを構築し、誤差の小さい自己位置検知を実現すると共に、絶対位置補正手段により、より実効的に炉内検査にける自己位置検知が可能になる。   Therefore, according to one embodiment described above, a Kalman filter is constructed using an inertial sensor and image information to realize self-position detection with a small error, and more effective in-core inspection by an absolute position correction unit. Self-position detection is possible.

次に、本発明の他の一実施形態に係る炉内検査装置について、図13から図15を用いて説明する。   Next, an in-furnace inspection apparatus according to another embodiment of the present invention will be described with reference to FIGS.

ここで、図1で説明した一実施形態では、検査装置に信号処理部を全て搭載し、最終自己位置検知結果だけを伝送していたが、この図13以降で説明する他の一実施形態では、慣性センサ及び画像取得情報だけを伝送し、制御装置側で自己位置の更新及び遠隔操作を行うようにしたものである。   Here, in the embodiment described with reference to FIG. 1, all the signal processing units are mounted on the inspection apparatus and only the final self-position detection result is transmitted. However, in the other embodiments described in FIG. Only the inertial sensor and the image acquisition information are transmitted, and the self-position update and the remote operation are performed on the control device side.

ここで、この他の一実施形態では、角度を検出する方式として、絶対方位を検出する手段を適用しているため、慣性センサ信号処理手段が異なっている。そこで、この他の一実施形態についての以下の説明では、既に説明した一実施形態と異なっている点に重点をおいて説明する。   Here, in this other embodiment, since the means for detecting the absolute azimuth is applied as the method for detecting the angle, the inertial sensor signal processing means is different. Therefore, in the following description of the other embodiment, an explanation will be given with a focus on differences from the already described embodiment.

まず、図13において、この他の一実施形態の場合、加速度検出手段1301(図2の101に相当)と方位検出手段1302、カメラ1303(同、107)、画像情報取得手段1304(同、108)、それに位置姿勢制御手段1305がROV側、つまり図2に示した炉内検査装置201に搭載されている。   First, in FIG. 13, in the case of this other embodiment, acceleration detecting means 1301 (corresponding to 101 in FIG. 2), azimuth detecting means 1302, camera 1303 (same as 107), image information obtaining means 1304 (same as 108). In addition, the position / orientation control means 1305 is mounted on the ROV side, that is, in the in-furnace inspection apparatus 201 shown in FIG.

なお、この図13の実施形態でも、図1の実施形態において示されているレーザマーカ照射手段109に相当する手段を備えているが、この図13では省略してある。   The embodiment of FIG. 13 also includes means corresponding to the laser marker irradiation means 109 shown in the embodiment of FIG. 1, but is omitted in FIG.

このときの位置姿勢制御手段1305は、図2における位置姿勢制御部208とスラスタ208に相当し、これらも含めて、ROV側の加速度検出手段1301と方位検出手段1302、画像情報取得手段1304は、夫々信号伝達手段1306を介して制御装置1308(図2の213に相当)に接続されている。   The position / orientation control unit 1305 at this time corresponds to the position / orientation control unit 208 and the thruster 208 in FIG. 2, and the ROV-side acceleration detection unit 1301, the direction detection unit 1302, and the image information acquisition unit 1304 include these. Each is connected to a control device 1308 (corresponding to 213 in FIG. 2) via a signal transmission means 1306.

従って、ここでの信号伝達手段1306は、図2におけるROV側信号伝送部210と信号伝送線211、それに制御装置側信号伝送部212を併せたものに相当していることになる。   Therefore, the signal transmission means 1306 here corresponds to a combination of the ROV side signal transmission unit 210, the signal transmission line 211, and the control device side signal transmission unit 212 in FIG.

これにより、制御装置1307は、信号伝送手段1306を介して、加速度検出手段1301と方位検出手段1302、それに画像情報取得手段1304からの情報を取り込むと共に、位置姿勢制御手段1305には、信号伝送手段1306を介して制御信号を伝送する。   As a result, the control device 1307 takes in the information from the acceleration detection means 1301, the orientation detection means 1302, and the image information acquisition means 1304 via the signal transmission means 1306, and the position / attitude control means 1305 receives the signal transmission means. A control signal is transmitted via 1306.

そして、まず、制御装置1307には、慣性センサ信号処理手段1308が備えられている。そして、これにより加速度信号と方位信号を処理するようになっているが、ここで、この慣性センサ信号処理手段1308については、後で図15により詳述する。   First, the control device 1307 includes inertial sensor signal processing means 1308. Thus, the acceleration signal and the azimuth signal are processed. Here, the inertial sensor signal processing means 1308 will be described in detail later with reference to FIG.

また、制御装置1308には、カメラ相対移動量算出手段1309と自己位置更新手段1310が備えられているが、これらは各々図1の実施形態におけるカメラ相対移動量算出手段116と自己位置更新手段104に相当する。   The control device 1308 includes a camera relative movement amount calculation unit 1309 and a self position update unit 1310, which are respectively the camera relative movement amount calculation unit 116 and the self position update unit 104 in the embodiment of FIG. It corresponds to.

そして、まず、カメラ相対移動量検知手段1309により、画像情報から3次元的な移動量を算出する。そして、自己位置更新手段1310は、これら画像慣性センサ信号処理手段1308とカメラ相対移動量検知手段1309の情報に基づいて自己位置を更新する。   First, the camera relative movement amount detection means 1309 calculates a three-dimensional movement amount from the image information. Then, the self-position updating unit 1310 updates the self-position based on information from the image inertial sensor signal processing unit 1308 and the camera relative movement amount detection unit 1309.

なお、このときのカメラ相対移動量検知手段1309と自己位置更新手段1310による信号処理手順については、図1の実施形態におけるカメラ相対移動量算出手段116と自己位置更新手段104による処理手順と同一であるので、説明は省略する。   The signal processing procedure by the camera relative movement amount detection unit 1309 and the self position update unit 1310 at this time is the same as the processing procedure by the camera relative movement amount calculation unit 116 and the self position update unit 104 in the embodiment of FIG. Since there is, explanation is omitted.

ここで、この図13の実施形態の特徴として、制御装置1207が検査経路入力手段1312を備えていることがある。そして、作業者は、検査に先立って、予め炉内を検査して行く経路について計画を立て、検査経路入力手段1312により、予め計画しておいた検査経路を入力しておき、以後、順次、検査目標となる対象物の位置を更新していくようになっている点がある。   Here, as a feature of the embodiment of FIG. 13, the control device 1207 may include an inspection route input unit 1312. Then, prior to the inspection, the operator makes a plan for the route for inspecting the furnace in advance, and inputs the inspection route planned in advance by the inspection route input means 1312. There exists a point which updates the position of the target object used as an inspection target.

そして、この検査経路入力手段1312により入力された目標位置は逐次、検査目標設定手段1313に送られ、自己位置更新手段1310により更新された自己位置と比較され、これにより進行方位が決定されるようになっている。   Then, the target position input by the inspection route input means 1312 is sequentially sent to the inspection target setting means 1313 and compared with the self position updated by the self position updating means 1310 so that the traveling direction is determined. It has become.

そこで、このとき決定された方位(進行方位)は、検査装置自動制御手段1305に供給され、これに応じて位置姿勢制御手段1305が備えている複数台のスラスタの中で駆動すべきスラスタを選別し、選別したスラスタの駆動力を決定して遠隔操作手段1311に伝え、ここで当該スラスタのモータに印加すべき端子電圧を決定し、炉内検査装置の位置が制御されるようにする。   Therefore, the orientation (traveling orientation) determined at this time is supplied to the inspection apparatus automatic control means 1305, and according to this, the thruster to be driven is selected from the plurality of thrusters provided in the position and orientation control means 1305. Then, the driving force of the selected thruster is determined and transmitted to the remote control means 1311. Here, the terminal voltage to be applied to the motor of the thruster is determined, and the position of the in-furnace inspection apparatus is controlled.

ここで、この図13の実施形態における制御装置1307の場合、手動操作入力手段1315が備えている。そして、これから供給された手動操作制御入力が遠隔操作手段1311に供給されるようになっていて、緊急時などにも対応できるようになっている。   Here, in the case of the control device 1307 in the embodiment of FIG. 13, the manual operation input means 1315 is provided. The manual operation control input supplied from now on is supplied to the remote operation means 1311 so that it can cope with an emergency or the like.

そして、これら自己位置更新手段1310、検査経路入力手段1312、検査目標設定手段1313の情報は、表示手段1316に伝送され、表示されるようになっている。   The information of the self-position updating unit 1310, the inspection route input unit 1312, and the inspection target setting unit 1313 is transmitted to the display unit 1316 and displayed.

次に、この図13の実施形態における処理の流れについて、図14を用いて詳述する。この図14において、ROVの制御を開始したら(ステップ1)、まず、検査経路・最終目標位置を入力する(ステップ2)。そうすると、これに応じて、最終目標位置に到達するまで、ステップ4からステップ16の処理を繰り返す(ステップ3)。   Next, the flow of processing in the embodiment of FIG. 13 will be described in detail with reference to FIG. In FIG. 14, when the ROV control is started (step 1), first, the inspection route / final target position is input (step 2). Then, in response to this, the processing from step 4 to step 16 is repeated until the final target position is reached (step 3).

ここで、目標位置に到達しない場合、まず、ステップ5からステップ7に示す処理を実行し、これにより目標経路を設定する(ステップ4)。そして、まず、初めに向かうべき目標位置を暫定目標位置として設定し(ステップ5)、次に3次元ビットマップを呼び出し(ステップ6)、続いて構造物に干渉することのない最短経路を設定するのである(ステップ7)。   Here, when the target position is not reached, first, the processing shown in Step 5 to Step 7 is executed, thereby setting the target route (Step 4). First, the target position that should be headed first is set as a provisional target position (step 5), then the three-dimensional bitmap is called (step 6), and then the shortest path that does not interfere with the structure is set. (Step 7).

このときの最短経路の決定方法としては、現在位置と目標位置間を3次元ビットマップ上で直線近似し、構造物を回避するようにして現在位置側から修正していく方式を採用すれば良いが、これに代えて、例えばダイクストラ法や、ウォーシャルフロイド法などを用いた、いわゆる最小コスト問題として決定することも可能である。   As a method for determining the shortest path at this time, a method may be adopted in which the current position and the target position are linearly approximated on a three-dimensional bitmap and corrected from the current position side so as to avoid the structure. However, instead of this, it can be determined as a so-called minimum cost problem using, for example, the Dijkstra method or the Warshall Floyd method.

そして、設定した最短距離に従って暫定目標に到達するまでROV(ここでは炉内検査装置のこと)を駆動する(ステップ8)。すなわち、まず、ROV駆動操作として(ステップ9)、各駆動装置(スラスタ)の駆動量を設定し(ステップ10)、実際にスラスタなどのモータを駆動する(ステップ11)。なお、この実施形態では、ROVが水中泳動型になっているので、駆動装置がスラスタで、このスラスタの制御になっているが、自走式の場合、駆動輪モータの制御となる。   Then, the ROV (in this case, the in-furnace inspection apparatus) is driven until the provisional target is reached according to the set shortest distance (step 8). That is, first, as a ROV drive operation (step 9), the drive amount of each drive device (thruster) is set (step 10), and a motor such as a thruster is actually driven (step 11). In this embodiment, since the ROV is an underwater electrophoresis type, the driving device is a thruster and is controlled by this thruster. However, in the case of the self-propelled type, the driving wheel motor is controlled.

次に、自己位置更新手段1310により、図1の実施形態における自己位置更新手段104で説明したようにして、自己位置を更新し(ステップ12)、次いで、目標位置に対して、現在位置における現在の駆動方向が適しているか否かを判定すし(ステップ13)、判定した結果、必要であれば、駆動装置の現在の駆動量を調整する(ステップ14)。   Next, the self-position update means 1310 updates the self-position as described in the self-position update means 104 in the embodiment of FIG. 1 (step 12), and then the current position at the current position with respect to the target position. It is determined whether or not the drive direction is suitable (step 13). If the determination is necessary, the current drive amount of the drive device is adjusted (step 14).

このとき、上記したように、この図13の実施形態では、手動による停止も受付けるようにしてある。そこで、次に手動停止信号の有無を判定し(ステップ15)、もしも手動停止があった場合には、最終目標に到達していなくても、ここで処理ルーチンを終了する(ステップ16)。   At this time, as described above, in the embodiment of FIG. 13, a manual stop is also accepted. Therefore, it is next determined whether or not there is a manual stop signal (step 15). If there is a manual stop, the processing routine is ended here even if the final target has not been reached (step 16).

しかして、以上の制御により最終目標に到達したと判断された場合は、ここでROVの制御を終了するのである(ステップ17)。   If it is determined that the final target has been reached by the above control, the ROV control is terminated here (step 17).

次に、図15を用いて、慣性センサ信号処理手段1308による処理について説明する。ここで、この図13の実施形態では、ROVの姿勢を検出するため、加速度検出手段(加速度センサ)1301と方位検出手段(方位センサ)1302が用いられており、このとき方位検出手段1302には磁気方位センサ(地磁気センサ)が用いられている。   Next, processing by the inertial sensor signal processing means 1308 will be described with reference to FIG. Here, in the embodiment of FIG. 13, acceleration detecting means (acceleration sensor) 1301 and azimuth detecting means (azimuth sensor) 1302 are used to detect the attitude of the ROV. At this time, the azimuth detecting means 1302 includes A magnetic orientation sensor (geomagnetic sensor) is used.

この図15の処理を開始したら(ステップ1)、まず、方位検出手段(地磁気センサ)1302の信号を処理し、地磁気方位角(X軸から磁北までの回転角)を算出する(ステップ2)。このため、最初、地磁気センサの信号を入力する(ステップ3)。   When the processing of FIG. 15 is started (step 1), first, the signal of the azimuth detecting means (geomagnetic sensor) 1302 is processed to calculate the geomagnetic azimuth (rotation angle from the X axis to magnetic north) (step 2). Therefore, first, a geomagnetic sensor signal is input (step 3).

このとき、地磁気センサは、X軸とY軸の2信号を出力し、その逆正接により方位が算出できるようになっている。そこで、各軸の地磁気信号からオフセットを減じ、ゲインを掛けて基本処理をする(ステップ4)。そして、基本処理後のX軸、Y軸の信号を夫々Mx、Myとすると、地磁気方位角θMAG は、次の(15)式により算出できる。 At this time, the geomagnetic sensor outputs two signals of the X axis and the Y axis, and the azimuth can be calculated by the arc tangent thereof. Therefore, basic processing is performed by subtracting the offset from the geomagnetic signal of each axis and multiplying the gain (step 4). Then, if the X-axis and Y-axis signals after the basic processing are Mx and My, respectively, the geomagnetic azimuth angle θ MAG can be calculated by the following equation (15).

ここで、この地磁気方位角θMAG はX軸から磁北までの角度を表わしたもので、X軸とY軸を含む平面を水平面に投影した際のX軸の回転角を示す。

Figure 0004383237
Here, the geomagnetic azimuth angle θ MAG represents an angle from the X axis to the magnetic north, and indicates a rotation angle of the X axis when a plane including the X axis and the Y axis is projected onto the horizontal plane.
Figure 0004383237

次に、加速度検出手段1302の信号を入力し(ステップ6)、この後、重力方向単位ベクトルを算出する(ステップ7)。すなわち、まず、周波数が1Hz以下のローパスフィルタで信号を処理し、実効値を演算して各軸の加速度の直流成分を抽出する(ステップ8)。なお、このステップは、ローパスフィルタによる処理以外に、フーリエ変換の結果として得られる直流成分の値を用いても良い。   Next, a signal of the acceleration detecting means 1302 is input (step 6), and thereafter a gravity direction unit vector is calculated (step 7). That is, first, a signal is processed by a low-pass filter having a frequency of 1 Hz or less, an effective value is calculated, and a DC component of acceleration of each axis is extracted (step 8). Note that this step may use the value of the DC component obtained as a result of the Fourier transform, in addition to the processing by the low-pass filter.

次に、各軸のオフセットを減じ、ゲインを掛けて重力成分を抽出する。そこで得られたベクトル(GxR、GyR、GzR)を単位ベクトル化し、重力方向単位ベクトル(Gx、Gy、Gz)とする(ステップ9)。   Next, the gravity component is extracted by subtracting the offset of each axis and multiplying the gain. The vector (GxR, GyR, GzR) obtained there is converted into a unit vector to be a gravity direction unit vector (Gx, Gy, Gz) (step 9).

次に、ステップ9で得られた重力方向単位ベクトル(Gx、Gy、Gz)を法線ベクトルとし、自己位置を通る平面に対し、ステップ5で得られた磁北を本来の北に併せて得られるX−Y軸に投影する(ステップ11)。   Next, the gravity direction unit vector (Gx, Gy, Gz) obtained in step 9 is used as a normal vector, and the magnetic north obtained in step 5 is obtained together with the original north with respect to the plane passing through the self position. Projection is performed on the XY axes (step 11).

次に、Z軸を回転させ、重力方向単位ベクトルのX−Y軸と、投影によるX−Y軸を併せ、Z軸回りの回転角θY とする。次に、Z軸が鉛直になるようにY軸回りに平面を回転させ、回転角θP とする。そして、最後に、平面が水平になるようにX軸回りに回転させ、回転角θR とするのである(以上、ステップ12)。 Next, the Z axis is rotated, and the XY axis of the gravity direction unit vector and the XY axis by projection are combined to obtain a rotation angle θ Y around the Z axis. Next, the plane is rotated around the Y axis so that the Z axis is vertical, and the rotation angle θ P is obtained. Finally, the plane is rotated around the X axis so that the plane is horizontal, and the rotation angle θ R is set (step 12).

次いで、こうして得られた回転角(θR、θP、θY)から、前回の更新時からの差分として、単位時間回転角(ωR、ωP、ωY)を算出する。なお、加速度検出手段1301の信号を処理し、慣性移動量を算出する部分以降の処理(ステップ14からステップ19)は、既に図8で説明した実施形態その1の場合と同じであるので省略する。 Next, a unit time rotation angle (ω R , ω P , ω Y ) is calculated from the rotation angles (θ R , θ P , θ Y ) thus obtained as a difference from the previous update. The processing after the portion for processing the signal of the acceleration detecting means 1301 and calculating the inertial movement amount (step 14 to step 19) is the same as that in the first embodiment already described in FIG. .

従って、図13で説明した実施形態によれば、検査の自動化が可能になり、検査効率の向上が、より一層図られるものである。   Therefore, according to the embodiment described with reference to FIG. 13, the inspection can be automated and the inspection efficiency can be further improved.

本発明は、原子炉圧力容器内構造物の検査装置及び検査方法等に係り、特に原子炉圧力容器内構造物において、遠隔操作によりカメラを搭載した点検装置を近づけ、該構造物の目視検査、いわゆるVT検査を効率的に行ない、清掃等の予防保全を行う場合など、3次元的な移動物体の自己位置検知に広く適用出来るものであり、特に、GPSやPHS等の電波が使えない環境での使用、さらには、低速移動物体に対する使用に適している。   The present invention relates to a reactor pressure vessel internal structure inspection apparatus, inspection method, and the like, and in particular, in a nuclear reactor pressure vessel internal structure, an inspection device equipped with a camera is brought close by remote operation, and the structure is visually inspected, It is widely applicable to self-position detection of three-dimensional moving objects, such as when performing so-called VT inspection efficiently and performing preventive maintenance such as cleaning, especially in environments where radio waves such as GPS and PHS cannot be used. Are suitable for use on low-speed moving objects.

本発明に係る自己位置検知装置の一実施形態を示すブロック構成図である。It is a block block diagram which shows one Embodiment of the self-position detection apparatus which concerns on this invention. 本発明に係る自己位置検知装置を炉内検査用に適用した場合の一実施形態を示すブロック構成図である。It is a block block diagram which shows one Embodiment at the time of applying the self-position detection apparatus which concerns on this invention for the inspection in a furnace. 本発明の一実施形態における慣性センサの配置状況の一例を示す説明図である。It is explanatory drawing which shows an example of the arrangement | positioning condition of the inertial sensor in one Embodiment of this invention. 本発明の一実施形態における表示画面の一例を示す説明図である。It is explanatory drawing which shows an example of the display screen in one Embodiment of this invention. 本発明の一実施形態による処理の全体を示す流れ図である。It is a flowchart which shows the whole process by one Embodiment of this invention. 本発明の一実施形態における初期位置設定方法の説明図である。It is explanatory drawing of the initial position setting method in one Embodiment of this invention. 本発明の一実施形態における初期位置設定方法の説明図である。It is explanatory drawing of the initial position setting method in one Embodiment of this invention. 本発明の一実施形態における慣性移動量算出処理を詳述した流れ図である。5 is a flowchart detailing an inertial movement amount calculation process in an embodiment of the present invention. 本発明の一実施形態におけるカメラ相対移動量算出処理を詳述した流れ図である。5 is a flowchart detailing a camera relative movement amount calculation process in an embodiment of the present invention. 本発明の一実施形態における対物距離算出方法の説明図である。It is explanatory drawing of the objective distance calculation method in one Embodiment of this invention. 本発明の一実施形態におけるカメラ相対移動量算出方法の説明図である。It is explanatory drawing of the camera relative movement amount calculation method in one Embodiment of this invention. 本発明の一実施形態における絶対位置更新処理を詳述した流れ図である。It is the flowchart which detailed the absolute position update process in one Embodiment of this invention. 本発明に係る自己位置検知装置の他の一実施形態を示すブロック構成図である。It is a block block diagram which shows other one Embodiment of the self-position detection apparatus which concerns on this invention. 本発明の他の一実施形態における処理の全体を示す流れ図である。It is a flowchart which shows the whole process in other one Embodiment of this invention. 本発明の他の一実施形態における慣性移動量算出処理を詳述した流れ図である。It is the flowchart which detailed the inertial movement amount calculation process in other one Embodiment of this invention.

符号の説明Explanation of symbols

103:慣性センサ信号処理手段
104:自己位置更新手段
110:カメラ相対移動量算出手段
119:慣性速度標準偏差算出手段
120:画像速度標準偏差算出手段
103: Inertial sensor signal processing means 104: Self-position updating means 110: Camera relative movement amount calculating means 119: Inertial speed standard deviation calculating means 120: Image speed standard deviation calculating means

Claims (7)

慣性移動量検知手段により移動体の慣性移動量を算出し、該慣性移動量から前記移動体の位置を検出する方式の自己位置検知装置において、
前記移動体の前方が視野となるようにして前記移動体に搭載したカメラと、前記カメラにより撮像した画像情報に基づいて前記移動体のカメラ相対移動量を算出するカメラ相対移動量検知手段と、前記慣性移動量により表わされている前記移動体の位置を、前記カメラ相対移動量により表わされている前記移動体の位置により補正する自己位置更新手段とを設け、
前記自己位置更新手段が、
前記慣性移動量の時間変化から慣性速度偏差を算出する慣性速度標準偏差算出手段と、
前記カメラ相対移動量の時間変化から画像速度偏差を算出する画像速度標準偏差算出手段と、
前記慣性速度偏差と前記画像速度偏差に基づいてカルマンゲインを更新するゲイン更新手段と、
前記ゲイン更新手段の出力に基づいて前記慣性移動量を更新する絶対位置更新手段とを備えていることを特徴とする自己位置検知装置。
In the self-position detecting device of the type that calculates the inertial movement amount of the moving body by the inertial movement amount detection means and detects the position of the moving body from the inertial movement amount,
A camera mounted on the moving body such that the front of the moving body is a field of view; camera relative movement amount detecting means for calculating a camera relative movement amount of the moving body based on image information captured by the camera; Self-position updating means for correcting the position of the moving body represented by the inertial movement amount by the position of the moving body represented by the camera relative movement amount ;
The self-position update means
An inertial speed standard deviation calculating means for calculating an inertial speed deviation from a time change of the inertial movement amount;
Image speed standard deviation calculating means for calculating an image speed deviation from a time change of the camera relative movement amount;
A gain updating means for updating a Kalman gain based on the inertia velocity deviation and the image velocity deviation;
A self-position detecting device comprising: absolute position updating means for updating the amount of inertia movement based on the output of the gain updating means .
請求項1に記載の自己位置検知装置において、
前記慣性移動量検知手段が、
加速度を検知する加速度検知手段と、
角速度を検知する角速度検知手段と、
前記加速度から各軸の速度を算出する軸速度算出手段と、
前記角速度から回転角を算出する回転角算出手段とを備えていることを特徴とする自己位置検知装置。
The self-position detecting device according to claim 1,
The inertial movement detection means is
Acceleration detecting means for detecting acceleration;
Angular velocity detection means for detecting angular velocity;
An axis velocity calculating means for calculating the velocity of each axis from the acceleration;
A self-position detecting device, comprising: a rotation angle calculating means for calculating a rotation angle from the angular velocity .
請求項1に記載の自己位置検知装置において、
前記自己位置更新手段が、
検知対象物の3次元構造情報が記憶されたマップ記憶手段と、
前記絶対位置更新手段で更新された前記検知対象物の自己位置と前記マップ記憶手段から読出した3次元構造情報により干渉を判定する接触判定手段と、
前記接触判定手段により干渉ありと判定されたとき、前記自己位置を補正する絶対位置補正手段とを備えていることを特徴とする自己位置検知装置。
The self-position detecting device according to claim 1,
The self-position update means
Map storage means for storing the three-dimensional structure information of the detection object;
Contact determination means for determining interference based on the self-position of the detection object updated by the absolute position update means and the three-dimensional structure information read from the map storage means;
A self-position detecting device comprising: absolute position correcting means for correcting the self-position when the contact determining means determines that there is interference .
請求項に記載の自己位置検知装置において、
前記移動体が前記カメラの光軸と平行にレーザを照射するマーカレーザ照射手段を備え、
前記カメラ相対移動量検知手段が、
前記カメラで撮像した画像内における前記レーザ光画像の位置に基づいて、前記カメラから前記画像内で中心に撮像されている物体までの間の距離を算出する画像中心距離算出手段を備えていることを特徴とする自己位置検知装置。
The self-position detecting device according to claim 1 ,
The moving body includes marker laser irradiation means for irradiating a laser parallel to the optical axis of the camera,
The camera relative movement detecting means is
Image center distance calculating means for calculating a distance from the camera to an object imaged at the center in the image based on the position of the laser light image in the image imaged by the camera . Self-position detecting device characterized by.
請求項1乃至請求項4に記載の自己位置検知装置の何れかが搭載された炉内検査手段を用いて原子炉内を検査するようにした炉内検査方法において、
前記炉内検査手段が、位置姿勢制御手段と該位置姿勢制御手段を操作する遠隔操作手段とを備え、水中を任意に航行可能にした移動体であり、
前記原子炉内にある制御棒案内管の何れかを炉心支持板から外して制御棒及び燃料集合体と共に原子炉内から引き上げた後、前記炉内検査手段を、前記制御棒案内管が取り付けられていた炉心支持板の孔から前記炉心支持板下部に挿入して検査を行なうことを特徴とする炉内検査方法
In the in-core inspection method in which the inside of the nuclear reactor is inspected using the in-core inspecting means in which any of the self-position detecting devices according to claim 1 is mounted .
The in- furnace inspection means includes a position and orientation control means and a remote operation means for operating the position and orientation control means, and is a moving body capable of arbitrarily navigating underwater,
After removing one of the control rod guide tubes in the reactor from the core support plate and pulling up the control rod and the fuel assembly together with the control rod, the control rod guide tube is attached to the in-core inspection means. An in-core inspection method, wherein an inspection is performed by inserting the core support plate into a lower portion of the core support plate through a hole in the core support plate .
請求項5に記載の炉内検査方法において、
前記自己位置検知装置が、前記移動体を前記原子炉内のCRDハウジングの上部に接触させたとき、その位置を当該移動体の基準位置として取り込むものであることを特徴とする炉内検査方法。
In the in-furnace inspection method according to claim 5 ,
The in - reactor inspection method, wherein the self-position detecting device takes in the position as a reference position of the moving body when the moving body is brought into contact with an upper portion of a CRD housing in the nuclear reactor .
請求項1乃至請求項記載の自己位置検知装置の何れかが搭載された炉内検査手段を用いて原子炉内を検査するようにした炉内検査装置において、
前記炉内検査手段が、位置姿勢制御手段と該位置姿勢制御手段を操作する遠隔操作手段とを備え、水中を任意に航行可能にした移動体であり、
前記自己位置更新手段が、検査目標経路を入力する検査経路入力手段と、前記自己位置検知装置の出力である自己位置と該検査目標経路とを比較し当面の検査目標を設定する検査目標設定手段と、該自己位置と検査目標を比較し前記位置姿勢制御手段を制御する検査装置自動制御手段とを備えていることを特徴とする炉内検査装置
In furnace inspection apparatus designed to inspect nuclear reactor using either the furnace inspection means mounted self-position detecting apparatus according to claim 1 to claim 4, wherein,
The in- furnace inspection means includes a position and orientation control means and a remote operation means for operating the position and orientation control means, and is a moving body capable of arbitrarily navigating underwater,
The self-position updating means compares the self-position, which is the output of the self-position detecting device, with the inspection target path, and sets an inspection target for the time being. And an inspection apparatus automatic control means for controlling the position and orientation control means by comparing the self position with an inspection target .
JP2004133596A 2004-04-28 2004-04-28 Self-position detection device, in-furnace inspection method and in-furnace inspection device using the same Expired - Lifetime JP4383237B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004133596A JP4383237B2 (en) 2004-04-28 2004-04-28 Self-position detection device, in-furnace inspection method and in-furnace inspection device using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004133596A JP4383237B2 (en) 2004-04-28 2004-04-28 Self-position detection device, in-furnace inspection method and in-furnace inspection device using the same

Publications (2)

Publication Number Publication Date
JP2005315709A JP2005315709A (en) 2005-11-10
JP4383237B2 true JP4383237B2 (en) 2009-12-16

Family

ID=35443299

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004133596A Expired - Lifetime JP4383237B2 (en) 2004-04-28 2004-04-28 Self-position detection device, in-furnace inspection method and in-furnace inspection device using the same

Country Status (1)

Country Link
JP (1) JP4383237B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220115067A (en) * 2021-02-09 2022-08-17 아사히 가세이 일렉트로닉스 가부시끼가이샤 Position detection devices, position detection systems, position detection methods and position detection program

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4984497B2 (en) * 2005-11-10 2012-07-25 株式会社日立製作所 Underwater inspection device
JP5044199B2 (en) * 2006-11-20 2012-10-10 株式会社東芝 Control device and control method for underwater remote control device
JP4884303B2 (en) * 2007-06-04 2012-02-29 株式会社日立製作所 Underwater vehicle control system
JP4554649B2 (en) * 2007-07-30 2010-09-29 コリア プラント サービス アンド エンジニアリング カンパニー リミテッド Stud bolt hole cleaning, inspection and damage history management system
JP4691581B2 (en) 2008-06-13 2011-06-01 日立Geニュークリア・エナジー株式会社 Underwater moving object position detection device
JP5054718B2 (en) * 2009-03-03 2012-10-24 日立Geニュークリア・エナジー株式会社 Position detecting device and position detecting method for underwater moving body
US8412483B2 (en) * 2010-09-13 2013-04-02 Westinghouse Electric Company Llc Method for automated position verification
SE537414C2 (en) * 2011-08-26 2015-04-21 Westinghouse Electric Sweden Device and method for cleaning surfaces
WO2013033924A1 (en) * 2011-09-09 2013-03-14 深圳市大疆创新科技有限公司 Dual-axis ball head for use in unmanned aerial vehicle, triple-axis ball head for use in unmanned aerial vehicle, and multi-rotor aerial vehicle
WO2013033954A1 (en) 2011-09-09 2013-03-14 深圳市大疆创新科技有限公司 Gyroscopic dynamic auto-balancing ball head
KR101513776B1 (en) * 2012-04-10 2015-04-20 한국수력원자력 주식회사 Foreign removal system for steam generator of nuclear power plant
JP6002092B2 (en) 2013-06-28 2016-10-05 日立Geニュークリア・エナジー株式会社 Underwater vehicle control system and underwater vehicle control method
US8903568B1 (en) 2013-07-31 2014-12-02 SZ DJI Technology Co., Ltd Remote control method and terminal
JP2016541026A (en) 2013-10-08 2016-12-28 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Apparatus and method for stabilization and vibration reduction
US9857311B2 (en) * 2014-08-27 2018-01-02 Ge-Hitachi Nuclear Energy Americas Llc Methods and systems for nondestructive testing with accurate position
US11785184B2 (en) * 2019-03-22 2023-10-10 Spp Technologies Co., Ltd. Maintenance support system, maintenance support method, and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220115067A (en) * 2021-02-09 2022-08-17 아사히 가세이 일렉트로닉스 가부시끼가이샤 Position detection devices, position detection systems, position detection methods and position detection program
KR102476151B1 (en) 2021-02-09 2022-12-12 아사히 가세이 일렉트로닉스 가부시끼가이샤 Position detection devices, position detection systems, position detection methods and position detection program
US11808610B2 (en) 2021-02-09 2023-11-07 Asahi Kasei Microdevices Corporation Position detection apparatus, position detection system, and position detection method

Also Published As

Publication number Publication date
JP2005315709A (en) 2005-11-10

Similar Documents

Publication Publication Date Title
JP4383237B2 (en) Self-position detection device, in-furnace inspection method and in-furnace inspection device using the same
JP5054718B2 (en) Position detecting device and position detecting method for underwater moving body
CN111076880B (en) Multi-point deflection measuring method of long-span bridge considering camera attitude change
US9909864B2 (en) System, device and method for tracking position and orientation of vehicle, loading device and cargo in loading device operations
KR20190035496A (en) Positioning system for aerial non-destructive inspection
US20140025231A1 (en) Device, Program Product and Computer Implemented Method for Touchless Metrology Using an Inertial Navigation System and Laser
EP3474109A1 (en) Measuring device, control device for unmanned aerial vehicle and method for controlling unmanned aerial vehicle
JP4691581B2 (en) Underwater moving object position detection device
US20160153786A1 (en) Devices, program products and computer implemented methods for touchless metrology having virtual zero-velocity and position update
JP2009193097A (en) Control device for mobile robot and mobile robot system
JP4884303B2 (en) Underwater vehicle control system
CN112197765B (en) Method for realizing fine navigation of underwater robot
JP2019101001A (en) Position estimation device, and, position estimation method
US12002193B2 (en) Inspection device for inspecting a building or structure
JP2012006098A (en) Manipulator, and control method therefor
WO2021186507A1 (en) Inspection device, inspection method, and program
KR100652914B1 (en) System of inspecting outside wall of vessel and port using remotely operated vehicle
Plotnik et al. Visual servoing of an rov for servicing of tethered ocean moorings
Fujarra et al. Validation of a low-cost IMU for flow-induced vibration tracking in offshore systems
CN113064209B (en) Geomagnetic detection method for submarine cable
JP6230923B2 (en) Position detecting device and position detecting method for underwater moving body
Spielvogel et al. Online 3-Axis Magnetometer Hard-Iron and Soft-Iron Bias and Angular Velocity Sensor Bias Estimation Using Angular Velocity Sensors for Improved Dynamic Heading Accuracy
KR102504743B1 (en) Position correction device and correction method of inspection drone based on the model of the facility
US12012207B2 (en) Inspection device, inspection method, and program
CN109669468B (en) Measuring device, unmanned aerial vehicle, control device and control method thereof, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060529

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090519

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090714

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090901

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090918

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121002

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4383237

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131002

Year of fee payment: 4