JP2009016956A - Camera control system, camera control apparatus and camera control program - Google Patents

Camera control system, camera control apparatus and camera control program Download PDF

Info

Publication number
JP2009016956A
JP2009016956A JP2007173407A JP2007173407A JP2009016956A JP 2009016956 A JP2009016956 A JP 2009016956A JP 2007173407 A JP2007173407 A JP 2007173407A JP 2007173407 A JP2007173407 A JP 2007173407A JP 2009016956 A JP2009016956 A JP 2009016956A
Authority
JP
Japan
Prior art keywords
vector
imaging direction
instruction
unit
monitoring target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007173407A
Other languages
Japanese (ja)
Inventor
Takahiro Inoue
貴博 井上
Seiji Murakami
誠治 村上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2007173407A priority Critical patent/JP2009016956A/en
Publication of JP2009016956A publication Critical patent/JP2009016956A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a camera control system, a camera control apparatus and a camera control program, wherein in acquiring a monitoring object image taken including part of a monitoring object image, operability can be improved while further accurately moving an imaging direction of a camera along a monitoring object. <P>SOLUTION: The camera control system for controlling the imaging direction of the camera includes an image acquisition part for acquiring the monitoring object image taken by the camera and including a part of a monitoring target image, a display part for displaying the monitoring object image acquired by the image acquisition part, a receiving part for receiving a start point coordinate value and an end point coordinate value which are input to the monitoring object image by a user, a vector acquisition part for acquiring an indication vector directed from the start point coordinate value to the end point coordinate value, and an operation part for moving the imaging direction on the basis of a direction component of the acquired indication vector. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、カメラの撮像方向を制御するカメラ制御システム、カメラ制御装置、及びカメラ制御プログラムに関する。   The present invention relates to a camera control system, a camera control device, and a camera control program for controlling an imaging direction of a camera.

従来、監視対象物画像(例えば、構造物画像や人物画像)を含む監視対象撮像画像を取得するため、ユーザが表示部に表示される監視対象撮像画像を確認しながら、遠隔操作によりカメラの撮像方向(パン・チルト)を制御するカメラ制御システムが提案されている(例えば、特許文献1参照)。なお、このようなカメラ制御システムは、例えば、施設内を監視する監視システムや、住宅の床下を点検する床下点検システムなどに適用されている。   Conventionally, in order to acquire a monitoring target captured image including a monitoring target image (for example, a structure image or a person image), the user can perform remote control to capture the camera while confirming the monitoring target captured image displayed on the display unit. A camera control system that controls the direction (pan / tilt) has been proposed (see, for example, Patent Document 1). Note that such a camera control system is applied to, for example, a monitoring system for monitoring the inside of a facility, an underfloor inspection system for inspecting an underfloor of a house, and the like.

また、特許文献1に開示される技術では、表示部に表示される監視対象撮像画像内の上下左右側それぞれに領域が設けられており、ユーザが、マウスを用いて、例えば、上側の領域にカーソルをあわせてクリック操作を実行するだけで、カメラの撮像方向を上方向に移動させることができる。   Moreover, in the technique disclosed in Patent Document 1, areas are provided on the upper, lower, left, and right sides in the monitoring target captured image displayed on the display unit, and the user uses, for example, an upper area in the upper area. The camera's imaging direction can be moved upward simply by moving the cursor and executing a click operation.

しかし、特許文献1に開示される技術では、予め定められた上下左右方向にしかカメラの撮像方向を移動させることができない。よって、予め定められていない任意の方向、例えば、右斜め下方向にカメラの撮像方向を移動させる場合、ユーザは、右方向と下方向とに少しずつ撮像方向を移動するように操作して、カメラの撮像方向を右斜め下方向に移動させる必要がある。つまり、特許文献1に開示される技術では、任意の方向へカメラの撮像方向を移動させる場合、操作性が悪いという問題があった。   However, with the technique disclosed in Patent Document 1, the imaging direction of the camera can be moved only in predetermined vertical and horizontal directions. Therefore, when moving the imaging direction of the camera in an arbitrary direction that is not predetermined, for example, diagonally downward to the right, the user operates to move the imaging direction little by little in the right direction and the downward direction, It is necessary to move the image capturing direction of the camera diagonally downward to the right. In other words, the technique disclosed in Patent Document 1 has a problem that the operability is poor when the imaging direction of the camera is moved in an arbitrary direction.

そこで、この問題を解決する技術が提案されている(例えば、特許文献2参照)。特許文献2に開示される技術では、表示部に監視対象撮像画像を表示すると共に、当該監視対象撮像画像の中央には、アイコンが表示されている。また、ユーザが、当該アイコンを任意の方向に移動する操作(ドラッグ)を実行すると、カメラの撮像方向が操作した任意の方向に移動する。特許文献2に開示される技術によれば、ユーザは、表示される監視対象撮像画像を確認しながら、カメラの撮像方向を任意の方向へ移動させることができる。   Therefore, a technique for solving this problem has been proposed (see, for example, Patent Document 2). In the technique disclosed in Patent Document 2, a monitoring target captured image is displayed on the display unit, and an icon is displayed at the center of the monitoring target captured image. Further, when the user performs an operation (drag) for moving the icon in an arbitrary direction, the imaging direction of the camera moves in an arbitrary direction operated. According to the technique disclosed in Patent Literature 2, the user can move the imaging direction of the camera in an arbitrary direction while confirming the displayed monitoring target captured image.

ところで、監視対象撮像画像内に監視対象物画像が収まらない場合、ユーザは、遠隔操作により、監視対象物に沿ってカメラの撮像方向を移動させながら、監視対象物画像の一部を含む監視対象撮像画像を取得する場合がある。一例を挙げると、例えば、床下点検システムにおいて、床下に存在する基礎壁、配管、ゲーブルなどの監視対象物に沿ってカメラの撮像方向を移動させながら、監視対象物画像の一部を含む監視対象撮像画像を連続的に取得する場合がある。かかる場合、より正確に、かつ効率よく監視対象物画像の一部を含む監視対象撮像画像を取得するためには、より正確に監視対象物に沿ってカメラの撮像方向を移動させることが好ましい。   By the way, when the monitoring target image does not fit in the monitoring target captured image, the user can monitor the target including a part of the monitoring target image while moving the imaging direction of the camera along the monitoring target by remote control. A captured image may be acquired. For example, in an underfloor inspection system, for example, a monitoring target including a part of the monitoring target image while moving the imaging direction of the camera along the monitoring target such as a foundation wall, piping, or gable existing under the floor. There are cases where captured images are acquired continuously. In such a case, it is preferable to move the imaging direction of the camera along the monitoring object more accurately in order to acquire a monitoring object captured image including a part of the monitoring object image more accurately and efficiently.

このような場合、特許文献2に開示される技術では、ユーザが、監視対象撮像画像に含まれる監視対象物画像を参照し、中央に設けられているアイコンを監視対象物画像に沿って移動することで、監視対象物に沿ってカメラの撮像方向を移動させることも可能である。
特開平10−200807号公報 特開平10−197223号公報
In such a case, in the technique disclosed in Patent Document 2, the user refers to the monitoring object image included in the monitoring target captured image, and moves the icon provided in the center along the monitoring object image. Thus, it is also possible to move the imaging direction of the camera along the monitoring object.
Japanese Patent Laid-Open No. 10-200807 Japanese Patent Laid-Open No. 10-197223

しかしながら、取得された監視対象撮像画像には、監視対象物画像が監視対象撮像画像の中央ではなく、端に位置する場合がある。かかる場合、特許文献2に開示される技術を用いて、より正確に監視対象物に沿ってカメラの撮像方向を移動するためには、ユーザは、監視対象物画像の位置を監視対象撮像画像の中央に一度移動させて、中央に設けられているアイコンと監視対象物画像とを重ねた後、アイコンを再度移動させて、監視対象物に沿って撮像方向を移動させる必要がある。   However, in the acquired monitored object captured image, the monitored object image may be located at the end of the monitored object captured image instead of the center. In such a case, in order to move the imaging direction of the camera along the monitoring target more accurately using the technique disclosed in Patent Document 2, the user determines the position of the monitoring target image of the monitoring target captured image. It is necessary to move the image once along the monitoring object by moving the icon once in the center and overlapping the icon provided in the center with the monitoring object image and then moving the icon again.

つまり、従来技術では、ユーザは、撮像方向の移動用に予め設けられている固定箇所(例えば、中央に設けられたアイコン)に所定の操作を行って、カメラの撮像方向を移動させなければならず、監視対象撮像画像上の任意箇所に入力操作を行って、カメラの撮像方向を移動させることができなかった。よって、従来技術において、監視対象物に沿ってカメラの撮像方向をより正確に移動させるためには、撮像方向の移動用に予め設けられている固定箇所と監視対象物画像とを重ねるという操作が発生するため、操作性が悪いという問題があった。   In other words, in the prior art, the user must move the imaging direction of the camera by performing a predetermined operation on a fixed location (for example, an icon provided in the center) provided in advance for movement in the imaging direction. Therefore, it was impossible to move the imaging direction of the camera by performing an input operation at an arbitrary location on the monitoring target captured image. Therefore, in the prior art, in order to move the imaging direction of the camera along the monitoring target more accurately, an operation of superimposing a fixed location provided in advance for movement in the imaging direction and the monitoring target image is performed. Because of this, there was a problem that the operability was poor.

そこで、本発明は以上の点に鑑みてなされたもので、監視対象物画像の一部を含む監視対象撮像画像を取得する場合に、監視対象物に沿ってカメラの撮像方向をより正確に移動させつつ、操作性を向上させることが可能なカメラ制御システム、カメラ制御装置、及びカメラ制御プログラムを提供することを目的とする。   Therefore, the present invention has been made in view of the above points, and when acquiring a monitoring target captured image including a part of the monitoring target image, the camera imaging direction is more accurately moved along the monitoring target. It is an object of the present invention to provide a camera control system, a camera control device, and a camera control program that can improve operability.

本発明の特徴は、カメラの撮像方向を制御するカメラ制御システム(例えば、床下点検システム1000)であって、前記カメラによって撮像され、監視対象物画像(例えば、ケーブルの画像)の一部を含む監視対象撮像画像を取得する画像取得部と、前記画像取得部によって取得された前記監視対象撮像画像を表示する表示部と、前記監視対象撮像画像上に入力された始点座標の値と終点座標の値とを受け付ける受付部と、前記受付部によって受け付けられた前記始点座標の値と前記終点座標の値とに基づいて、前記始点座標の値から前記終点座標の値に向かう指示ベクトルを取得するベクトル取得部と、前記ベクトル取得部によって取得された前記指示ベクトルの方向成分に基づいて、前記撮像方向を移動する動作部(パン用モータ232又はチルト用モータ233又は走行用モータ25)とを備えることを要旨とするものである。   A feature of the present invention is a camera control system (e.g., an underfloor inspection system 1000) that controls an imaging direction of a camera, and includes a part of a monitoring object image (e.g., an image of a cable) captured by the camera. An image acquisition unit for acquiring a monitoring target captured image, a display unit for displaying the monitoring target captured image acquired by the image acquisition unit, and a start point coordinate value and an end point coordinate input on the monitoring target captured image A vector for acquiring an instruction vector from the value of the start point coordinate to the value of the end point coordinate based on the value of the start point coordinate and the value of the end point coordinate received by the accepting unit Based on the direction component of the instruction vector acquired by the acquisition unit and the vector acquisition unit, an operation unit (pan motor 23 for moving the imaging direction) Or it is an summarized in that and a tilting motor 233 or traction motor 25).

かかる特徴によれば、カメラ制御システムは、監視対象撮像画像上に入力された始点座標の値と終点座標の値からなる指示ベクトルに基づいて、カメラの撮像方向を移動する。本発明に係るカメラ制御システムでは、ユーザは、監視対象撮像画像の任意の位置に指示ベクトルを入力するのみで、撮像方向を移動させることができる。よって、かかる特徴によれば、カメラ制御システムでは、監視対象物画像の一部を含む監視対象撮像画像を取得する場合に、監視対象物に沿ってカメラの撮像方向をより正確に移動させつつ、操作性を向上させることができる。   According to this feature, the camera control system moves the imaging direction of the camera based on the instruction vector composed of the start point coordinate value and the end point coordinate value input on the monitoring target captured image. In the camera control system according to the present invention, the user can move the imaging direction only by inputting an instruction vector to an arbitrary position of the monitoring target captured image. Therefore, according to such a feature, in the camera control system, when acquiring a monitoring target captured image including a part of the monitoring target object image, while moving the imaging direction of the camera along the monitoring target more accurately, Operability can be improved.

また、本発明の特徴は、上記特徴に係り、前記動作部は、前記撮像方向を移動する際、移動前の前記監視対象撮像画像と移動後の監視対象撮像画像とが重複する重複領域を残すように前記撮像方向を移動してもよい。かかる特徴によれば、カメラ制御システムは、移動前の監視対象撮像画像と移動後の監視対象撮像画像とに重複領域が残るように撮像方向を移動するので、重複領域を有する二つの画像を効率よく取得することができる。   In addition, a feature of the present invention is related to the above feature, and when the operation unit moves in the imaging direction, the operation unit leaves an overlapping region where the monitoring target captured image before the movement and the monitoring target captured image after the movement overlap. As described above, the imaging direction may be moved. According to such a feature, the camera control system moves the imaging direction so that the overlapping area remains in the monitoring target captured image before the movement and the monitoring target captured image after the movement. Can get well.

また、本発明の特徴は、上記特徴に係り、前記指示ベクトルの長さ成分を調整した修正ベクトルを算出する修正ベクトル算出部と、前記監視対象撮像画像の中心から、前記指示ベクトル上の点に向かう補正ベクトルを算出する補正ベクトル算出部とを更に備え、前記動作部は、前記補正ベクトルと前記修正ベクトルとを加算した移動ベクトルに基づいて、前記撮像方向を移動してもよい。かかる特徴によれば、カメラ制御システムは、入力された指示ベクトルの長さ成分が、例えば、短い場合や長い場合であっても、当該指示ベクトルの長さ成分を適切に調整した修正ベクトルを算出する。また、カメラ制御システムでは、監視対象撮像画像上の中心から指示ベクトル上の点に向かう補正ベクトルを算出し、補正ベクトルと修正ベクトルとを加算した移動ベクトルに基づいて、撮像方向を移動する。ここで、例えば、ユーザは、監視を望む監視対象物画像にあわせて指示ベクトルを入力する場合など、監視対象撮像画像上の特定の位置に意図的に指示ベクトルを入力する場合がある。かかる場合、上述したカメラ制御システムでは、当該指示ベクトル上の点(位置)に向かう補正ベクトルを含む移動ベクトルにより、監視対象撮像画像上の特定の位置に向かうように、撮像方向を移動することができる。よって、ユーザが撮像方向を移動する際の操作性を向上させることができる。   In addition, a feature of the present invention relates to the above feature, a correction vector calculation unit that calculates a correction vector in which a length component of the instruction vector is adjusted, and a point on the instruction vector from a center of the monitoring target captured image. A correction vector calculation unit that calculates a correction vector to go may further be provided, and the operation unit may move the imaging direction based on a movement vector obtained by adding the correction vector and the correction vector. According to such a feature, the camera control system calculates a correction vector in which the length component of the instruction vector is appropriately adjusted even when the length component of the input instruction vector is short or long, for example. To do. Further, the camera control system calculates a correction vector from the center on the monitored target captured image to a point on the instruction vector, and moves the imaging direction based on a movement vector obtained by adding the correction vector and the correction vector. Here, for example, the user may intentionally input the instruction vector at a specific position on the monitoring target captured image, for example, when inputting the instruction vector in accordance with the monitoring object image desired to be monitored. In such a case, in the above-described camera control system, the imaging direction can be moved so as to go to a specific position on the monitoring target captured image by a movement vector including a correction vector directed to a point (position) on the instruction vector. it can. Therefore, the operability when the user moves in the imaging direction can be improved.

また、本発明の特徴は、上記特徴に係り、前記指示ベクトルの長さ成分を調整した修正ベクトルを算出する修正ベクトル算出部と、前記監視対象撮像画像の中心から、前記指示ベクトル上の点に向かう補正ベクトルを算出する補正ベクトル算出部とを更に備え、前記動作部は、前記補正ベクトルに従って前記撮像方向を移動した後、前記修正ベクトルに従って前記撮像方向を移動してもよい。かかるカメラ制御システムでは、監視対象撮像画像上の中心から指示ベクトル上の点に向かう補正ベクトルに従って撮像方向を移動した後、修正ベクトルに従って撮像方向を移動するので、ユーザが、監視を望む監視対象物画像にあわせて指示ベクトルを入力するだけで、監視対象物画像をより確実に含む監視対象物撮像画像を取得することができる。   In addition, a feature of the present invention relates to the above feature, a correction vector calculation unit that calculates a correction vector in which a length component of the instruction vector is adjusted, and a point on the instruction vector from a center of the monitoring target captured image. And a correction vector calculation unit that calculates a correction vector to go. The operation unit may move the imaging direction according to the correction vector after moving the imaging direction according to the correction vector. In such a camera control system, the imaging direction is moved in accordance with the correction vector after moving the imaging direction in accordance with the correction vector directed from the center on the monitored image to the point on the instruction vector. By simply inputting an instruction vector in accordance with the image, it is possible to acquire a monitoring object captured image that more reliably includes the monitoring object image.

また、本発明の特徴は、上記特徴に係り、前記指示ベクトルの方向成分と、一定である前記重複領域の面積とに基づいて、前記指示ベクトルの長さ成分を調整した修正ベクトルを算出する修正ベクトル算出部とを更に備え、前記動作部は、前記修正ベクトルに基づいて、前記撮像方向を移動してもよい。かかる特徴によれば、カメラ制御システムでは、入力された指示ベクトルに応じて重複領域を算出し、当該重複領域に応じて修正ベクトルが算出される。つまり、かかるカメラ制御システムでは、ユーザは、指示ベクトルを入力する際、例えば、指示ベクトルの入力操作を行うだけで、移動前の監視対象撮像画像と移動後の監視対象撮像画像とが一定の面積だけ重複する重複領域を残して、撮像方向を移動させることができる。   According to another aspect of the present invention, there is provided a correction for calculating a correction vector in which a length component of the instruction vector is adjusted based on a direction component of the instruction vector and a constant area of the overlapping region. A vector calculation unit, and the operation unit may move the imaging direction based on the correction vector. According to this feature, the camera control system calculates an overlapping area according to the input instruction vector, and calculates a correction vector according to the overlapping area. That is, in such a camera control system, when a user inputs an instruction vector, for example, the user only performs an input operation of the instruction vector, and the monitoring target captured image before the movement and the monitoring target captured image after the movement have a certain area. As a result, it is possible to move the imaging direction while leaving only overlapping areas.

また、本発明の特徴は、上記特徴に係り、前記撮像方向の移動前の前記監視対象撮像画像内に収まる第1楕円の形状と、前記撮像方向の移動後の監視対象撮像画像内に収まる第2楕円の形状を算出すると共に、前記第1楕円と前記第1楕円に外接するように定められた前記第2楕円とに基づいて、前記指示ベクトルの長さ成分を調整した修正ベクトルを算出する修正ベクトル算出部を更に備え、前記動作部は、算出された前記修正ベクトルに基づいて、前記撮像方向を移動してもよい。かかる特徴によれば、カメラ制御システムでは、ユーザが、指示ベクトルを入力すると、撮像方向の移動前の監視対象撮像画像内に収まる第1楕円の形状と、撮像方向の移動後の監視対象撮像画像内に収まる第2楕円の形状を算出する。また、カメラ制御システムでは、修正ベクトル算出部が、第1楕円と、当該第1楕円に外接するように定められた第2楕円とに基づいて、指示ベクトルの長さ成分を調整した修正ベクトルを算出し、動作部は、算出された修正ベクトルに基づいて、撮像方向を移動する。ここで、第1楕円と第2楕円とが外接することから、移動前の監視対象撮像画像と移動後の監視対象撮像画像との間に重複領域が形成される。よって、カメラ制御システムでは、ユーザが、指示ベクトルを入力すると、移動前の監視対象撮像画像と移動後の監視対象撮像画像との間に重複領域を形成しつつ、撮像方向を移動することができる。なお、第1楕円及び第2楕円の形状は、一定形状であってもよいし、指示ベクトルの長さ成分に応じて算出してもよい。   In addition, the feature of the present invention is related to the above feature, wherein the shape of the first ellipse that fits in the monitoring target captured image before movement in the imaging direction, and the first ellipse shape that fits in the monitoring target captured image after movement in the imaging direction. Calculating the shape of two ellipses, and calculating a modified vector obtained by adjusting the length component of the instruction vector based on the first ellipse and the second ellipse determined to circumscribe the first ellipse The image processing apparatus may further include a correction vector calculation unit, and the operation unit may move the imaging direction based on the calculated correction vector. According to such a feature, in the camera control system, when the user inputs an instruction vector, the shape of the first ellipse that fits within the monitoring target captured image before movement in the imaging direction and the monitoring target captured image after movement in the imaging direction. The shape of the second ellipse that falls within is calculated. In the camera control system, the correction vector calculation unit calculates a correction vector obtained by adjusting the length component of the instruction vector based on the first ellipse and the second ellipse that is circumscribed by the first ellipse. Then, the operation unit moves the imaging direction based on the calculated correction vector. Here, since the first ellipse and the second ellipse are circumscribed, an overlapping region is formed between the monitoring target captured image before the movement and the monitoring target captured image after the movement. Therefore, in the camera control system, when the user inputs an instruction vector, the imaging direction can be moved while forming an overlapping area between the monitoring target captured image before the movement and the monitoring target captured image after the movement. . Note that the shapes of the first ellipse and the second ellipse may be fixed shapes, or may be calculated according to the length component of the instruction vector.

また、本発明の特徴は、上記特徴に係り、前記動作部は、前記カメラを搭載するカメラ制御ロボット(移動ロボット20)に備えられ、車輪又はクローラ駆動する駆動部であってもよい。かかるカメラ制御システムでは、動作部は、車輪又はクローラ駆動を用いて、カメラ制御ロボットが地上を移動するための駆動部として機能する。よって、カメラ制御システムでは、例えば、動作部によって、カメラ制御ロボットを移動させることで、カメラの撮像方向を移動させることができる。   A feature of the present invention is related to the above feature, wherein the operation unit may be a drive unit that is provided in a camera control robot (mobile robot 20) on which the camera is mounted and that drives a wheel or a crawler. In such a camera control system, the operation unit functions as a drive unit for the camera control robot to move on the ground using wheels or a crawler drive. Therefore, in the camera control system, for example, by moving the camera control robot by the operation unit, the imaging direction of the camera can be moved.

また、本発明の特徴は、カメラの撮像方向を制御するカメラ制御ロボット(移動ロボット20)と通信し、前記カメラの撮像方向の移動を指示するカメラ制御装置(操作端末10)であって、前記カメラによって撮像され、監視対象物画像の一部を含む監視対象撮像画像を取得する画像取得部(制御部164)と、前記画像取得部によって取得された前記監視対象撮像画像を表示する表示部と、前記監視対象撮像画像上に入力された始点座標の値と終点座標の値とを受け付ける受付部(入力部15)と、前記受付部によって受け付けられた前記始点座標の値と前記終点座標の値とに基づいて、前記始点座標の値から前記終点座標の値に向かう指示ベクトルを取得するベクトル取得部(制御部164)と、前記ベクトル取得部によって取得された前記指示ベクトルの方向成分に基づいて、前記撮像方向の移動を指示する指示情報を前記カメラ制御ロボットに送信する指示部(撮像方向指示部169)とを備えることを要旨とするものである。   A feature of the present invention is a camera control apparatus (operation terminal 10) that communicates with a camera control robot (mobile robot 20) that controls an imaging direction of a camera and instructs movement of the imaging direction of the camera. An image acquisition unit (control unit 164) that acquires a monitoring target captured image that is captured by a camera and includes a part of the monitoring target object image; and a display unit that displays the monitoring target captured image acquired by the image acquisition unit; A reception unit (input unit 15) that receives the value of the start point coordinate and the value of the end point coordinate input on the monitoring target captured image, and the value of the start point coordinate and the value of the end point coordinate received by the reception unit And a vector acquisition unit (control unit 164) for acquiring an instruction vector from the start point coordinate value toward the end point coordinate value, and the vector acquisition unit. Based on the direction component of the indicator vector is for summarized in that provision of an indicator portion and (imaging direction instruction section 169) that transmits instruction information for instructing the movement of the imaging direction to the camera control robot.

また、本発明の特徴は、カメラの撮像方向を制御するカメラ制御ロボットと通信し、前記カメラの撮像方向の移動を指示するカメラ制御装置として動作するコンピュータに、前記カメラによって撮像され、監視対象物画像の一部を含む監視対象撮像画像を取得する画像取得ステップと、前記画像取得部によって取得された前記監視対象撮像画像を表示する表示ステップと、前記監視対象撮像画像上に入力された始点座標の値と終点座標の値とを受け付ける受付ステップと、前記受付部によって受け付けられた前記始点座標の値と前記終点座標の値とに基づいて、前記始点座標の値から前記終点座標の値に向かう指示ベクトルを取得するベクトル取得ステップと、前記ベクトル取得部によって取得された前記指示ベクトルの方向成分に基づいて、前記撮像方向の移動を指示する指示情報を前記カメラ制御ロボットに送信する指示ステップとして動作させることを要旨とするカメラ制御プログラムに関するものである。   In addition, a feature of the present invention is that a computer that operates as a camera control device that communicates with a camera control robot that controls the imaging direction of the camera and instructs the camera to move in the imaging direction is imaged by the camera and monitored. An image acquisition step for acquiring a monitoring target captured image including a part of the image, a display step for displaying the monitoring target captured image acquired by the image acquisition unit, and a start point coordinate input on the monitoring target captured image And a reception step of receiving the value of the end point coordinate and the value of the end point coordinate, and from the value of the start point coordinate to the value of the end point coordinate based on the value of the start point coordinate and the value of the end point coordinate received by the reception unit Based on a vector acquisition step of acquiring an instruction vector, and a direction component of the instruction vector acquired by the vector acquisition unit It relates a camera control program to subject matter that is operated as an instruction step of transmitting the instruction information for instructing the movement of the imaging direction to the camera control robot.

本発明の特徴によれば、監視対象物画像の一部を含む監視対象撮像画像を取得する場合に、監視対象物に沿ってカメラの撮像方向をより正確に移動させつつ、操作性を向上させることが可能なカメラ制御システム、カメラ制御装置、及びカメラ制御プログラムを提供することができる。  According to the features of the present invention, when acquiring a monitoring target captured image including a part of the monitoring target image, the operability is improved while moving the imaging direction of the camera along the monitoring target more accurately. It is possible to provide a camera control system, a camera control device, and a camera control program.

[第1実施形態]
本発明の第1実施形態について説明する。なお、以下の図面の記載において、同一または類似の部分には、同一または類似の符号を付している。ただし、図面は模式的なものであることに留意すべきである。
[First Embodiment]
A first embodiment of the present invention will be described. In the following description of the drawings, the same or similar parts are denoted by the same or similar reference numerals. However, it should be noted that the drawings are schematic.

(本発明の第1実施形態に係る床下点検システムの概略)
本発明の第1実施形態に係る床下点検システム1000の概略について、図を参照して説明する。なお、本実施形態において、床下点検システム1000は、カメラ制御システムを構成する。図1には、本実施形態に係る床下点検システム1000の全体概略構成が示されている。図1に示すように、本実施形態に係る床下点検システム1000は、操作端末10と、移動ロボット20とを備える。
(Outline of the underfloor inspection system according to the first embodiment of the present invention)
An outline of the underfloor inspection system 1000 according to the first embodiment of the present invention will be described with reference to the drawings. In the present embodiment, the underfloor inspection system 1000 constitutes a camera control system. FIG. 1 shows an overall schematic configuration of an underfloor inspection system 1000 according to the present embodiment. As shown in FIG. 1, the underfloor inspection system 1000 according to the present embodiment includes an operation terminal 10 and a mobile robot 20.

操作端末10は、建造物の床上等に存在し、移動ロボット20は、床下に存在する。また、操作端末10と移動ロボット20との間では、無線通信が行われている。なお、操作端末10と移動ロボット20との間における通信は、無線回線を用いてもよいし、有線回線を用いてもよい。   The operation terminal 10 exists on the floor of a building, and the mobile robot 20 exists under the floor. In addition, wireless communication is performed between the operation terminal 10 and the mobile robot 20. Communication between the operation terminal 10 and the mobile robot 20 may use a wireless line or a wired line.

操作端末10は、ユーザ入力に応じて、移動ロボット20を操作する遠隔操作コマンドを移動ロボット20へ送信し、移動ロボット20を遠隔操作する。この遠隔操作コマンドには、移動に関するコマンドや、撮像に関するコマンドなどが存在する。また、操作端末10は、例えば、ノート型コンピュータ等を使用できる。   The operation terminal 10 transmits a remote operation command for operating the mobile robot 20 to the mobile robot 20 in response to a user input, thereby operating the mobile robot 20 remotely. This remote operation command includes a command related to movement, a command related to imaging, and the like. The operation terminal 10 can use, for example, a notebook computer.

なお、図1においては、移動ロボット20及び操作端末10が建造物内に存在する場合を例示しているが、操作端末10は、建造物の外部から移動ロボット20を遠隔操作することも可能である。   Although FIG. 1 illustrates the case where the mobile robot 20 and the operation terminal 10 exist in the building, the operation terminal 10 can also remotely operate the mobile robot 20 from outside the building. is there.

(床下環境の一例)
次に、床下環境の一例について説明する。図2は、床下環境の一例を示す図である。床下は、高さ32cm〜37cm程度の空間であり、基礎により長方形の区画に区切られている。なお、移動ロボット20が床下点検時に確認すべき内容としては、基礎壁のクラックや、配管の水漏れ、ケーブルの破損状態などがある。
(Example of underfloor environment)
Next, an example of an underfloor environment will be described. FIG. 2 is a diagram illustrating an example of an underfloor environment. The floor is a space with a height of about 32 cm to 37 cm, and is divided into rectangular sections by a foundation. The contents to be confirmed by the mobile robot 20 at the time of underfloor inspection include cracks in the foundation wall, water leakage from the piping, cable breakage, and the like.

更に、基礎近くには、束と呼ばれる細い柱があらゆる場所に存在する。束を固定するための束基礎と呼ばれる5cm程度の高さのコンクリ台が存在する。なお、床下地面がコンクリである場合には、床下地面に束が直接固定されており、束基礎が存在しない場合もある。   Furthermore, there are thin pillars called bundles everywhere near the foundation. There is a concrete stand with a height of about 5 cm called a bundle foundation for fixing the bundle. In addition, when the floor base surface is concrete, the bundle is directly fixed to the floor base surface, and the bundle foundation may not exist.

移動ロボット20は、操作端末10の制御下で、床下の床下地面上を移動して床下を撮像し、監視対象撮像画像を取得する。具体的には、移動ロボット20は、床下内に設けられている基礎壁、床下天井、配管、ケーブル等を監視対象物として撮像し、撮像して得られた監視対象物の画像(監視対象物画像)を含む監視対象撮像画像(画像情報)を操作端末10へ送信する。また、操作端末10は、移動ロボット20から受信した監視対象撮像画像をリアルタイムに表示する。   Under the control of the operation terminal 10, the mobile robot 20 moves on the floor base surface under the floor, images the underfloor, and acquires a monitoring target captured image. Specifically, the mobile robot 20 images a base wall, an underfloor ceiling, a pipe, a cable, and the like provided under the floor as a monitoring target, and an image of the monitoring target (monitoring target) obtained by the imaging. The monitoring target captured image (image information) including the image) is transmitted to the operation terminal 10. In addition, the operation terminal 10 displays the monitoring target captured image received from the mobile robot 20 in real time.

(本発明の第1実施形態に係る床下点検システムの構成)
次に、図3を参照し、床下点検システム1000の構成について具体的に説明する。また、以下、本発明との関連がある部分について主に説明する。したがって、床下点検システム1000は、床下点検システムとしての機能を実現する上で必須な、図示しない或いは説明を省略した機能ブロック(電源部など)を備える場合があることに留意されたい。上述したように、本実施形態に係る床下点検システム1000は、操作端末10と、移動ロボット20とを備える。
(Configuration of the underfloor inspection system according to the first embodiment of the present invention)
Next, the configuration of the underfloor inspection system 1000 will be specifically described with reference to FIG. Hereinafter, portions related to the present invention will be mainly described. Therefore, it should be noted that the underfloor inspection system 1000 may include functional blocks (such as a power supply unit) that are not shown in the drawing or that are omitted in order to realize the function as the underfloor inspection system. As described above, the underfloor inspection system 1000 according to this embodiment includes the operation terminal 10 and the mobile robot 20.

(第1実施形態に係る操作端末の構成)
まず、図3を参照し、操作端末10の構成について具体的に説明する。図3に示すように、操作端末10は、通信部12と、表示部14と、入力部15と、操作制御部16とを備える。
(Configuration of operation terminal according to the first embodiment)
First, the configuration of the operation terminal 10 will be specifically described with reference to FIG. As illustrated in FIG. 3, the operation terminal 10 includes a communication unit 12, a display unit 14, an input unit 15, and an operation control unit 16.

通信部12は、移動ロボット20との間で、各種情報を送受信する。具体的に、通信部12は、移動ロボット20から送信された監視対象撮像画像などを受信する。また、通信部12は、遠隔操作コマンドなどを移動ロボット20に送信する。なお、本実施形態において、通信部12は、移動ロボット20のカメラによって撮像され、監視対象物画像の一部を含む監視対象撮像画像を取得する画像取得部を構成する。   The communication unit 12 transmits / receives various information to / from the mobile robot 20. Specifically, the communication unit 12 receives a monitoring target captured image transmitted from the mobile robot 20. In addition, the communication unit 12 transmits a remote operation command or the like to the mobile robot 20. In the present embodiment, the communication unit 12 constitutes an image acquisition unit that acquires a monitoring target captured image including a part of the monitoring target image captured by the camera of the mobile robot 20.

表示部14は、通信部12によって受信された監視対象物画像の一部を含む監視対象撮像画像を表示する。また、表示部14は、ユーザが入力部15を用いて、監視対象撮像画像上に指示ベクトルを入力した際、監視対象撮像画像上に指示ベクトルを表示する。なお、指示ベクトルの詳細については、後述する(図4参照)。   The display unit 14 displays a monitoring target captured image including a part of the monitoring target object image received by the communication unit 12. The display unit 14 displays the instruction vector on the monitoring target captured image when the user inputs the instruction vector on the monitoring target captured image using the input unit 15. Details of the instruction vector will be described later (see FIG. 4).

入力部15は、ユーザからの入力を受け付ける。また、入力部15は、ユーザによって入力された遠隔操作コマンドを受け付ける。また、入力部15は、表示部14に表示されている監視対象撮像画像を参照するユーザによって、監視対象撮像画像上に指示ベクトルが入力されると、この情報を操作制御部16に出力する。   The input unit 15 receives input from the user. The input unit 15 receives a remote operation command input by the user. The input unit 15 outputs this information to the operation control unit 16 when an instruction vector is input on the monitoring target captured image by the user who refers to the monitoring target captured image displayed on the display unit 14.

ここで、図4には、ユーザが入力部15を用いて、表示部14に表示される画像に入力した指示ベクトルrの一例が示されている。図4に示すように、ユーザは、入力部15(例えば、マウス)を用いて、表示部14に表示されるカーソルを、指示ベクトルrの始点座標P1でクリックダウンし、ドラッグしたまま指示ベクトルrの終点座標P2でクリックアップして、指示ベクトルrを入力する。また、入力部15は、指示ベクトルrが入力されると、監視対象撮像画像Fの中心を原点として、始点座標P1の座標値(本発明に係る始点座標の値)と終点座標P2の座標値(本発明に係る終点座標の値)とを含む指示ベクトル情報を、操作制御部16に出力する。なお、当該指示ベクトル情報は、移動ロボット20のカメラ231の撮像方向を移動するために用いられる情報である。本実施形態において、入力部15は、ユーザによって監視対象撮像画像上に入力された始点座標P1と終点座標P2とを受け付ける受付部を構成する。   Here, FIG. 4 shows an example of the instruction vector r input to the image displayed on the display unit 14 by the user using the input unit 15. As illustrated in FIG. 4, the user uses the input unit 15 (for example, a mouse) to click down on the cursor displayed on the display unit 14 at the start point coordinate P1 of the instruction vector r, and drags the instruction vector r. Is clicked up at the end point coordinate P2, and the instruction vector r is input. Further, when the instruction vector r is input, the input unit 15 sets the coordinate value of the start point coordinate P1 (the value of the start point coordinate according to the present invention) and the coordinate value of the end point coordinate P2 with the center of the monitoring target captured image F as the origin. Instruction vector information including (end point coordinate value according to the present invention) is output to the operation control unit 16. The instruction vector information is information used to move the imaging direction of the camera 231 of the mobile robot 20. In the present embodiment, the input unit 15 constitutes a receiving unit that receives the start point coordinates P1 and the end point coordinates P2 input on the monitoring target captured image by the user.

また、本実施形態に係る床下点検システム1000では、カメラ231の撮像方向を移動する方法として、指示ベクトルrの方向成分に基づいて撮像方向を移動する第1モードと、指示ベクトルrが入力された監視対象撮像画像上の位置を考慮して撮像方向を移動する第2乃至第3モードとを用いることが可能である。なお、第1乃至第3モードの詳細については後述する。入力部15は、第1乃至第3モードのいずれのモードを用いるかについて、ユーザから指示を受け付けて、当該モードを示すモード情報を操作制御部16に出力する。   In the underfloor inspection system 1000 according to the present embodiment, as a method of moving the imaging direction of the camera 231, the first mode in which the imaging direction is moved based on the direction component of the instruction vector r and the instruction vector r are input. It is possible to use the second to third modes in which the imaging direction is moved in consideration of the position on the monitoring target captured image. Details of the first to third modes will be described later. The input unit 15 receives an instruction from the user as to which of the first to third modes is used, and outputs mode information indicating the mode to the operation control unit 16.

操作制御部16は、操作端末10の各種機能を制御する。具体的に、操作制御部16は、通信部12によって受信された監視対象物画像の一部を含む監視対象撮像画像を表示部14に表示させる。また、操作制御部16は、入力部15から出力された指示ベクトル情報やモード情報に基づいて、カメラの撮像方向の移動を指示する撮像方向指示情報を、通信部12を介して移動ロボット20に送信する。   The operation control unit 16 controls various functions of the operation terminal 10. Specifically, the operation control unit 16 causes the display unit 14 to display a monitoring target captured image including a part of the monitoring target object image received by the communication unit 12. In addition, the operation control unit 16 sends imaging direction instruction information for instructing movement of the imaging direction of the camera to the mobile robot 20 via the communication unit 12 based on the instruction vector information and mode information output from the input unit 15. Send.

(第1実施形態に係る操作端末の操作制御部の構成)
次に、本実施形態に係る操作制御部16の構成について図を参照して説明する。図5に示すように、操作制御部16は、送受信部162と、記憶部163と、制御部164と、重複領域算出部165と、修正ベクトル算出部166と、補正ベクトル算出部167とを備える。
(Configuration of operation control unit of operation terminal according to first embodiment)
Next, the configuration of the operation control unit 16 according to the present embodiment will be described with reference to the drawings. As illustrated in FIG. 5, the operation control unit 16 includes a transmission / reception unit 162, a storage unit 163, a control unit 164, an overlapping region calculation unit 165, a correction vector calculation unit 166, and a correction vector calculation unit 167. .

送受信部162は、入力部15によって受け付けられた各種情報を受信する。また、送受信部162は、入力部15から送信された指示ベクトル情報を受信する。また、送受信部162は、入力部15からモード情報を受信すると、当該モード情報を記憶部163に記憶する。   The transmission / reception unit 162 receives various types of information received by the input unit 15. Further, the transmission / reception unit 162 receives the instruction vector information transmitted from the input unit 15. Further, when receiving the mode information from the input unit 15, the transmission / reception unit 162 stores the mode information in the storage unit 163.

記憶部163は、通信部12で受信された監視対象撮像画像や、移動ロボット20を遠隔操作するための遠隔操作コマンド等の各種設定情報を記憶する。また、記憶部163は、送受信部162において、モード情報が受信されると、当該モード情報に含まれる第1乃至第3モードを記憶する。例えば、記憶部163は、モード情報に、第1モードを示す情報が含まれている場合、図6に示すように、第1モードを「使用」として、他の第2乃至第3モードを「未使用」として記憶する。   The storage unit 163 stores various setting information such as a monitoring target captured image received by the communication unit 12 and a remote operation command for remotely operating the mobile robot 20. Further, when the transmission / reception unit 162 receives the mode information, the storage unit 163 stores the first to third modes included in the mode information. For example, when the mode information includes information indicating the first mode, the storage unit 163 sets the first mode to “use” and sets the other second to third modes to “use” as illustrated in FIG. Store as “unused”.

制御部164は、操作制御部16内の各種機能を制御する。また、制御部164は、通信部12から監視対象撮像画像を受信すると、当該監視対象撮像画像を表示部14に出力し、表示部14に表示させる。また、制御部164は、送受信部162において、指示ベクトル情報が受信されると、当該指示ベクトル情報に含まれる始点座標P1と終点座標P2とに基づいて、始点座標P1の座標値から終点座標P2の座標値に向かう指示ベクトルrを取得する。   The control unit 164 controls various functions in the operation control unit 16. In addition, when receiving the monitoring target captured image from the communication unit 12, the control unit 164 outputs the monitoring target captured image to the display unit 14 and causes the display unit 14 to display the monitoring target captured image. Further, when the instruction vector information is received by the transmission / reception unit 162, the control unit 164, based on the start point coordinates P1 and the end point coordinates P2 included in the instruction vector information, from the coordinate value of the start point coordinates P1 to the end point coordinates P2 An instruction vector r toward the coordinate value of is obtained.

また、制御部164は、指示ベクトルrを取得すると、記憶部163を参照し、第1乃至第3モードの何れのモードが「使用」であるか否かを判定する。例えば、制御部164は、記憶部163を参照した際、第1モードが「使用」である場合、指示ベクトル情報を、修正ベクトル算出部166に出力する。   In addition, when acquiring the instruction vector r, the control unit 164 refers to the storage unit 163 and determines which of the first to third modes is “use”. For example, when the first mode is “use” when referring to the storage unit 163, the control unit 164 outputs the instruction vector information to the correction vector calculation unit 166.

また、制御部164は、記憶部163を参照した際、第2モードが「使用」である場合、指示ベクトル情報を、修正ベクトル算出部166と補正ベクトル算出部167とに出力する。   Further, when the second mode is “use” when referring to the storage unit 163, the control unit 164 outputs the instruction vector information to the correction vector calculation unit 166 and the correction vector calculation unit 167.

また、制御部164は、記憶部163を参照した際、第3モードが「使用」である場合、指示ベクトル情報を、補正ベクトル算出部167と移動ベクトル算出部168とに出力する。本実施形態において、制御部164は、ベクトル取得部を構成する。   In addition, when the third mode is “use” when the storage unit 163 is referred to, the control unit 164 outputs the instruction vector information to the correction vector calculation unit 167 and the movement vector calculation unit 168. In the present embodiment, the control unit 164 constitutes a vector acquisition unit.

重複領域算出部165は、指示ベクトルrの方向成分に基づいて、移動前の監視対象撮像画像と移動後の監視対象撮像画像との間における重複領域の面積を取得する。なお、本実施形態において、重複領域算出部165は、予め記憶する一定面積Sの重複領域を取得することとする。また、重複領域算出部165は、重複領域の面積Sを、修正ベクトル算出部166と、移動ベクトル算出部168とに出力する。   The overlapping area calculation unit 165 acquires the area of the overlapping area between the monitoring target captured image before the movement and the monitoring target captured image after the movement based on the direction component of the instruction vector r. In the present embodiment, the overlapping area calculation unit 165 acquires an overlapping area having a predetermined area S stored in advance. In addition, the overlapping region calculation unit 165 outputs the area S of the overlapping region to the correction vector calculation unit 166 and the movement vector calculation unit 168.

修正ベクトル算出部166は、指示ベクトルrの長さ成分を調整した修正ベクトルr1を算出する。また、修正ベクトル算出部166は、指示ベクトルrの方向成分と、一定面積Sの重複領域とに基づいて、修正ベクトルr1の長さ成分を調整する。具体的に、修正ベクトル算出部166は、移動前の監視対象撮像画像と移動後の監視対象撮像画像との間に重複領域を有するように移動後の監視対象撮像画像の中心の座標を算出する。また、本実施形態では、修正ベクトル算出部166は、重複領域が重複領域算出部165から入力した一定面積Sになるように、移動後の監視対象撮像画像の中心の座標を算出する。   The correction vector calculation unit 166 calculates a correction vector r1 obtained by adjusting the length component of the instruction vector r. Further, the correction vector calculation unit 166 adjusts the length component of the correction vector r1 based on the direction component of the instruction vector r and the overlapping area of the constant area S. Specifically, the correction vector calculation unit 166 calculates the coordinates of the center of the monitored target captured image after movement so that there is an overlapping area between the monitored target captured image before movement and the monitored target captured image after movement. . Further, in the present embodiment, the correction vector calculation unit 166 calculates the coordinates of the center of the monitoring target captured image after movement so that the overlapping area becomes the constant area S input from the overlapping area calculation unit 165.

ここで、図7には、監視対象撮像画像Fに入力された指示ベクトルrと、移動前の監視対象撮像画像Fと、移動後の監視対象撮像画像Fmと、算出された修正ベクトルr1のイメージが示されている。また、同図に示すように、本実施形態では、監視対象撮像画像の水平方向の間隔をHとし、垂直方向の間隔をVとする。また、本実施形態において、重複領域RAは、水平方向の間隔aと垂直方向の間隔bとによって、面積S=a×bで示される。   Here, in FIG. 7, the instruction vector r input to the monitoring target captured image F, the monitoring target captured image F before the movement, the monitoring target captured image Fm after the movement, and the image of the calculated correction vector r1. It is shown. Further, as shown in the figure, in this embodiment, the horizontal interval between the monitored images is H, and the vertical interval is V. In the present embodiment, the overlapping area RA is represented by an area S = a × b by a horizontal interval a and a vertical interval b.

具体的に、修正ベクトル算出部166が修正ベクトルr1を算出する方法について説明する。修正ベクトル算出部166は、制御部164から指示ベクトル情報が入力されると、当該指示ベクトル情報に含まれる始点座標P1の座標値から終点座標P2の座標値に向かう指示ベクトルrを取得する。また、修正ベクトル算出部166は、指示ベクトル情報に含まれる指示ベクトルrの始点座標P1と終点座標P2とに基づいて、指示ベクトルrの角度θを算出する。   Specifically, a method in which the correction vector calculation unit 166 calculates the correction vector r1 will be described. When the instruction vector information is input from the control unit 164, the correction vector calculation unit 166 acquires the instruction vector r from the coordinate value of the start point coordinate P1 to the coordinate value of the end point coordinate P2 included in the instruction vector information. The correction vector calculation unit 166 calculates the angle θ of the instruction vector r based on the start point coordinates P1 and the end point coordinates P2 of the instruction vector r included in the instruction vector information.

ここで、移動前の監視対象撮像画像Fの中心を原点(0,0)とし、移動後の監視対象撮像画像Fmの中心の座標を(x,y)とすると、座標(x,y)は、下記に示す(1)式の関係式によって示される。

Figure 2009016956
Here, assuming that the center of the monitoring target captured image F before the movement is the origin (0, 0) and the coordinates of the center of the monitoring target captured image Fm after the movement are (x, y), the coordinates (x, y) are It is shown by the relational expression of the following expression (1).
Figure 2009016956


また、例えば、指示ベクトルrの角度θを第1象限の角度(0度〜90度)とすると、移動後の監視対象撮像画像Fmの中心の座標“x”は、下記に示す(2)式の関係式によって示される。

Figure 2009016956

Further, for example, if the angle θ of the instruction vector r is the angle in the first quadrant (0 degree to 90 degrees), the coordinate “x” of the center of the monitoring target captured image Fm after the movement is expressed by the following equation (2) It is shown by the relational expression.
Figure 2009016956


よって、修正ベクトル算出部166は、上述した(1)乃至(2)式に基づいて、移動後の監視対象撮像画像Fmの中心の座標 (x,y)を、下記の(3)式により算出する。

Figure 2009016956

Therefore, the correction vector calculation unit 166 calculates the coordinates (x, y) of the center of the monitored captured image Fm after movement based on the above-described equations (1) to (2) according to the following equation (3). To do.
Figure 2009016956



なお、修正ベクトル算出部166は、指示ベクトルrの角度θが、(I)0度、(II)90度、(III)180度、(IV)270度の場合は、下記に示すように式(4)乃至(7)式に基づいて、移動後の監視対象撮像画像Fmの中心の座標 (x,y)を算出する。


When the angle θ of the instruction vector r is (I) 0 degrees, (II) 90 degrees, (III) 180 degrees, and (IV) 270 degrees, the correction vector calculation unit 166 calculates the equation as shown below. Based on the equations (4) to (7), the coordinates (x, y) of the center of the monitoring target captured image Fm after movement are calculated.

(I) θ=0(ゼロ)度の場合

Figure 2009016956
(I) When θ = 0 (zero) degrees
Figure 2009016956



(II) θ=90度の場合

Figure 2009016956


(II) When θ = 90 degrees
Figure 2009016956



(III) θ=180度の場合

Figure 2009016956


(III) When θ = 180 degrees
Figure 2009016956



(IV) θ=270度の場合

Figure 2009016956


(IV) When θ = 270 degrees
Figure 2009016956



このようにして、修正ベクトル算出部166は、図7に示すように、原点座標(0,0)を始点とし、算出した移動後の監視対象撮像画像Fmの中心の座標(x,y)を終点とする修正ベクトルr1を算出する。また、修正ベクトル算出部166は、算出した修正ベクトルr1を撮像方向指示部169に出力する。


In this way, as shown in FIG. 7, the correction vector calculation unit 166 uses the origin coordinates (0, 0) as the starting point, and calculates the calculated coordinates (x, y) of the center of the monitored image Fm after the movement. A correction vector r1 as the end point is calculated. The correction vector calculation unit 166 outputs the calculated correction vector r1 to the imaging direction instruction unit 169.

補正ベクトル算出部167は、移動前の監視対象撮像画像Fの中心から、指示ベクトルr上の点に向かう補正ベクトルr2を算出する。具体的に、補正ベクトル算出部167は、制御部164から指示ベクトル情報が入力されると、当該指示ベクトル情報に含まれる始点座標P1の座標値から終点座標P2の座標値に向かう指示ベクトルrを取得する。また、補正ベクトル算出部167は、指示ベクトル情報に含まれる指示ベクトルrの始点座標P1と終点座標P2とを結ぶ第1直線を算出する。また、補正ベクトル算出部167は、監視対象撮像画像Fの中心(原点)を通過し、算出した第1直線と直交する第2直線を算出する。また、補正ベクトル算出部167は、図8に示すように、第1直線と第2直線との交点をP3とし、当該交点P3の座標(x,y)を算出する。また、補正ベクトル算出部167は、算出した交点P3座標(x,y)に基づいて、移動前の監視対象撮像画像Fの原点を始点座標とし、交点P3を終点座標とする補正ベクトルr2を算出する。また、補正ベクトル算出部167は、算出した補正ベクトルr2を、移動ベクトル算出部168と撮像方向指示部169に出力する。 The correction vector calculation unit 167 calculates a correction vector r2 from the center of the monitoring target captured image F before movement toward a point on the instruction vector r. Specifically, when the instruction vector information is input from the control unit 164, the correction vector calculation unit 167 calculates the instruction vector r from the coordinate value of the start point coordinate P1 to the coordinate value of the end point coordinate P2 included in the instruction vector information. get. Further, the correction vector calculation unit 167 calculates a first straight line connecting the start point coordinates P1 and the end point coordinates P2 of the instruction vector r included in the instruction vector information. Further, the correction vector calculation unit 167 calculates a second straight line that passes through the center (origin) of the monitoring target captured image F and is orthogonal to the calculated first straight line. Further, as shown in FIG. 8, the correction vector calculation unit 167 calculates the coordinates (x 2 , y 2 ) of the intersection P3 with the intersection of the first straight line and the second straight line as P3. Further, the correction vector calculation unit 167 uses the calculated intersection point P3 coordinates (x 2 , y 2 ) as the start point coordinates of the monitoring target captured image F before movement, and the correction vector r2 having the intersection point P3 as the end point coordinates. Is calculated. In addition, the correction vector calculation unit 167 outputs the calculated correction vector r2 to the movement vector calculation unit 168 and the imaging direction instruction unit 169.

移動ベクトル算出部168は、監視対象撮像画像の中心から、補正ベクトルr2と修正ベクトルr1とを加算した移動ベクトルr3を算出する。このとき、移動ベクトル算出部168は、移動前の監視対象撮像画像と移動後の監視対象撮像画像との間に重複領域を有するように、修正ベクトルr1の長さ成分を調節し、移動後の監視対象撮像画像の中心を算出する。また、本実施形態では、移動ベクトル算出部168は、重複領域が重複領域算出部165から入力した一定面積Sになるように、移動後の監視対象撮像画像の中心を算出する。   The movement vector calculation unit 168 calculates a movement vector r3 obtained by adding the correction vector r2 and the correction vector r1 from the center of the monitoring target captured image. At this time, the movement vector calculation unit 168 adjusts the length component of the correction vector r1 so as to have an overlapping area between the monitoring target captured image before the movement and the monitoring target captured image after the movement, and after the movement. The center of the monitoring target captured image is calculated. Further, in the present embodiment, the movement vector calculation unit 168 calculates the center of the monitoring target captured image after movement so that the overlapping area becomes the constant area S input from the overlapping area calculation unit 165.

ここで、図9には、補正ベクトルr2と修正ベクトルr1とを加算した移動ベクトルr3と、移動前の監視対象撮像画像Fと、移動後の監視対象撮像画像Fmaとのイメージが示されている。また、重複領域RAは、水平方向の間隔aと垂直方向の間隔bとによって、面積S=a×bで示される。   Here, FIG. 9 shows images of the movement vector r3 obtained by adding the correction vector r2 and the correction vector r1, the monitoring target captured image F before the movement, and the monitoring target captured image Fma after the movement. . The overlapping area RA is represented by an area S = a × b by a horizontal interval a and a vertical interval b.

また、移動ベクトル算出部168は、制御部164から指示ベクトル情報が入力されると、当該指示ベクトル情報に含まれる始点座標P1の座標値から終点座標P2の座標値に向かう指示ベクトルrを取得する。また、移動ベクトル算出部168は、指示ベクトル情報に含まれる指示ベクトルrの始点座標P1と終点座標P2とに基づいて、指示ベクトルrの角度θを算出する。   In addition, when the instruction vector information is input from the control unit 164, the movement vector calculation unit 168 acquires the instruction vector r from the coordinate value of the start point coordinate P1 to the coordinate value of the end point coordinate P2 included in the instruction vector information. . Further, the movement vector calculation unit 168 calculates the angle θ of the instruction vector r based on the start point coordinates P1 and the end point coordinates P2 of the instruction vector r included in the instruction vector information.

ここで、図9に示すように、移動前の監視対象撮像画像Fの中心の座標を(0,0)とし、移動後の監視対象撮像画像Fmの中心の座標を(x,y)とすると、移動ベクトルr3(x,y)は、下記に示す(8)乃至(10)式の関係式によって示される。

Figure 2009016956


Figure 2009016956


Figure 2009016956
Here, as shown in FIG. 9, if the coordinates of the center of the monitoring target captured image F before movement are (0, 0) and the coordinates of the center of the monitoring target captured image Fm after movement are (x, y). The movement vector r3 (x, y) is represented by the following relational expressions (8) to (10).
Figure 2009016956


Figure 2009016956


Figure 2009016956



なお、(9)乃至(10)式において、“a”は重複領域RAの面積Sにおける水平方向の間隔を示し、“b”は重複領域RAの面積Sにおける垂直方向の間隔を示す。また、(9)乃至(10)式において、“+”と“−”の符号は、指示ベクトルrの角度θが、第1乃至第4象限の何れの角度であるかに応じて変更する。例えば、指示ベクトルrの角度θを第1象限の角度(0度〜90度)とすると、(9)乃至(10)式において、符号は共に“+”の符号となる。


In the equations (9) to (10), “a” indicates a horizontal interval in the area S of the overlapping region RA, and “b” indicates a vertical interval in the area S of the overlapping region RA. In the equations (9) to (10), the signs “+” and “−” are changed depending on which angle θ of the instruction vector r is in the first to fourth quadrants. For example, if the angle θ of the instruction vector r is the angle in the first quadrant (0 degree to 90 degrees), the signs in the expressions (9) to (10) are both “+” signs.

また、図10には、補正ベクトルr2と修正ベクトルr1と移動ベクトルr3との関係図が示されている。なお、図10において、“θ”は、修正ベクトルr1によって示される角度であり、指示ベクトルrによって示される角度と同様である。また、“φ”は、移動ベクトルr3によって示される角度である。図10に示すように、補正ベクトルr2と修正ベクトルr1とは、直交することから、補正ベクトルr2を(x,y)とし、修正ベクトルr1を(x,y)として乗算すると内積は0になるので、下記(11)式の関係式によって示される。

Figure 2009016956
FIG. 10 shows a relationship diagram between the correction vector r2, the correction vector r1, and the movement vector r3. In FIG. 10, “θ” is an angle indicated by the correction vector r1, and is the same as the angle indicated by the instruction vector r. “Φ” is an angle indicated by the movement vector r3. As shown in FIG. 10, since the correction vector r2 and the correction vector r1 are orthogonal to each other, multiplying the correction vector r2 as (x 2 , y 2 ) and the correction vector r1 as (x 1 , y 1 ) results in an inner product. Is 0, and is represented by the following relational expression (11).
Figure 2009016956




また、移動ベクトルr3(x,y)は、補正ベクトルr2と修正ベクトルr1とを加算したベクトルであるため、下記(12)式によって示される。

Figure 2009016956



The movement vector r3 (x, y) is a vector obtained by adding the correction vector r2 and the correction vector r1, and is represented by the following equation (12).

Figure 2009016956



ここで、補正ベクトルr2(x,y)は、補正ベクトル算出部167によって算出され、又、重複領域RAの面積Sは、一定であるため、補正ベクトルr2(x,y)と面積Sは既知の値である。よって、(12)式を(11)式に代入すると、下記(13)式が得られる。

Figure 2009016956


Here, the correction vector r2 (x 2 , y 2 ) is calculated by the correction vector calculation unit 167, and since the area S of the overlapping region RA is constant, the correction vector r2 (x 2 , y 2 ) and The area S is a known value. Therefore, the following equation (13) is obtained by substituting equation (12) into equation (11).
Figure 2009016956



なお、(13)式において“A”と“B”とは(14)式によって示される。

Figure 2009016956


In Expression (13), “A” and “B” are expressed by Expression (14).
Figure 2009016956



上記(9)乃至(10)式と、(13)乃至(14)式と、一定面積SがS=a×bで示されることから、移動ベクトルr3(x,y)が算出できる。また、移動ベクトル算出部168は、算出した移動ベクトルr3を、撮像方向指示部169に出力する。


Since the above formulas (9) to (10), (13) to (14), and the constant area S are represented by S = a × b, the movement vector r3 (x, y) can be calculated. Further, the movement vector calculation unit 168 outputs the calculated movement vector r3 to the imaging direction instruction unit 169.

撮像方向指示部169は、取得した指示ベクトルrの方向成分に基づいて、撮像方向の移動を指示する撮像方向指示情報(指示情報)を、通信部12を介して、移動ロボット20に送信する。また、撮像方向指示部169は、撮像方向指示情報を送信する際、修正ベクトルr1に従って撮像方向を移動する第1モードと、補正ベクトルr2に従って撮像方向を移動した後に修正ベクトルr1に従って撮像方向を移動する第2モードと、移動ベクトルr3に従って撮像方向を移動する第3モードとを切り替えて、各第1乃至第3モードに対応する撮像方向指示情報を移動ロボット20に送信する。なお、第1乃至第3モードの切替は、ユーザからの指示に応じて、記憶部163に記憶される第1乃至第3モードの何れのモードが「使用」であるかに応じて切り替えられる。   The imaging direction instruction unit 169 transmits imaging direction instruction information (instruction information) for instructing movement in the imaging direction to the mobile robot 20 via the communication unit 12 based on the direction component of the acquired instruction vector r. In addition, when transmitting the imaging direction instruction information, the imaging direction instruction unit 169 moves the imaging direction according to the correction vector r1 after moving the imaging direction according to the first mode that moves the imaging direction according to the correction vector r1 and the correction vector r2. The second mode is switched to the third mode in which the imaging direction is moved according to the movement vector r3, and imaging direction instruction information corresponding to each of the first to third modes is transmitted to the mobile robot 20. Note that switching between the first to third modes is switched according to which of the first to third modes stored in the storage unit 163 is “use” in response to an instruction from the user.

具体的に、撮像方向指示部169は、記憶部163に記憶される第1モードが「使用」である場合、修正ベクトル算出部166によって算出された修正ベクトルr1を入力する。また、撮像方向指示部169は、修正ベクトルr1に基づいて、カメラの撮像方向を移動する際の角度を示すパン・チルト角度を算出する。また、撮像方向指示部169は、算出したパン・チルト角度を含む撮像方向指示情報を、第1モードに対応する撮像方向指示情報として移動ロボット20に送信する。   Specifically, the imaging direction instruction unit 169 inputs the correction vector r1 calculated by the correction vector calculation unit 166 when the first mode stored in the storage unit 163 is “use”. Further, the imaging direction instruction unit 169 calculates a pan / tilt angle indicating an angle when moving in the imaging direction of the camera based on the correction vector r1. In addition, the imaging direction instruction unit 169 transmits imaging direction instruction information including the calculated pan / tilt angle to the mobile robot 20 as imaging direction instruction information corresponding to the first mode.

撮像方向指示部169は、記憶部163に記憶される第2モードが「使用」である場合、修正ベクトル算出部166によって算出された修正ベクトルr1と、補正ベクトル算出部167によって算出された補正ベクトルr2とを入力する。また、撮像方向指示部169は、補正ベクトルr2に基づいて、カメラの撮像方向を移動する際の角度を示す第1パン・チルト角度を算出する。また、撮像方向指示部169は、修正ベクトルr1に基づいて、カメラの撮像方向を移動する際の角度を示す第2パン・チルト角度を算出する。また、撮像方向指示部169は、算出した第1乃至第2パン・チルト角度を含む撮像方向指示情報を、第2モードに対応する撮像方向指示情報として移動ロボット20に送信する。   When the second mode stored in the storage unit 163 is “use”, the imaging direction instruction unit 169 includes the correction vector r1 calculated by the correction vector calculation unit 166 and the correction vector calculated by the correction vector calculation unit 167. Enter r2. Further, the imaging direction instruction unit 169 calculates a first pan / tilt angle indicating an angle when moving in the imaging direction of the camera based on the correction vector r2. Further, the imaging direction instruction unit 169 calculates a second pan / tilt angle indicating an angle when moving in the imaging direction of the camera, based on the correction vector r1. In addition, the imaging direction instruction unit 169 transmits imaging direction instruction information including the calculated first to second pan / tilt angles to the mobile robot 20 as imaging direction instruction information corresponding to the second mode.

撮像方向指示部169は、記憶部163に記憶される第3モードが「使用」である場合、移動ベクトル算出部168によって算出された移動ベクトルr3を入力する。また、撮像方向指示部169は、移動ベクトルr3に基づいて、カメラの撮像方向を移動する際の角度を示すパン・チルト角度を算出する。また、撮像方向指示部169は、算出したパン・チルト角度を含む撮像方向指示情報を、第3モードに対応する撮像方向指示情報として移動ロボット20に送信する。本実施形態において、撮像方向指示部169は、指示部を構成する。   When the third mode stored in the storage unit 163 is “use”, the imaging direction instruction unit 169 inputs the movement vector r3 calculated by the movement vector calculation unit 168. Further, the imaging direction instruction unit 169 calculates a pan / tilt angle indicating an angle when moving in the imaging direction of the camera based on the movement vector r3. In addition, the imaging direction instruction unit 169 transmits imaging direction instruction information including the calculated pan / tilt angle to the mobile robot 20 as imaging direction instruction information corresponding to the third mode. In the present embodiment, the imaging direction instruction unit 169 constitutes an instruction unit.

(第1実施形態に係る移動ロボットの構成)
次に、移動ロボット20の構成について具体的に説明する。また、以下、本発明との関連がある部分について主に説明する。移動ロボット20は、通信部22と、カメラユニット23と、ロボット制御部24と、走行用モータ25と、各種センサ26とを備える。
(Configuration of mobile robot according to the first embodiment)
Next, the configuration of the mobile robot 20 will be specifically described. Hereinafter, portions related to the present invention will be mainly described. The mobile robot 20 includes a communication unit 22, a camera unit 23, a robot control unit 24, a travel motor 25, and various sensors 26.

通信部22は、操作端末10との間で各種情報を送受信する。具体的に、通信部22は、カメラユニット23から出力された監視対象撮像画像を操作端末10に送信する。また、通信部22は、操作端末10から送信された遠隔操作コマンドや、カメラの撮像方向の移動を指示する撮像方向指示情報を受信する。   The communication unit 22 transmits and receives various information to and from the operation terminal 10. Specifically, the communication unit 22 transmits the monitoring target captured image output from the camera unit 23 to the operation terminal 10. The communication unit 22 also receives a remote operation command transmitted from the operation terminal 10 and imaging direction instruction information for instructing movement of the camera in the imaging direction.

カメラユニット23は、床下を撮像して監視対象撮像画像を取得するカメラ231と、カメラ231のパン(水平方向の角度制御)を実行するパン用モータ232と、カメラ231のチルト(垂直方向の角度制御)を実行するチルト用モータ233と、カメラユニット23内の各種機能を制御するカメラ制御部234とを備える。また、カメラ制御部234は、通信部22において、撮像方向指示情報が受信されると、当該撮像方向指示情報に含まれるパン・チルト角度に基づいて、パン用モータ232やチルト用モータ233を制御し、カメラ231の撮像方向を移動する。なお、本実施形態において、パン用モータ232又はチルト用モータ233の少なくとも一方、又は両方は、カメラの撮像方向を制御する動作部を構成する。つまり、カメラユニット23では、パン用モータ232やチルト用モータ233によって、パン・チルトの動作が実行されることによって、カメラ231の撮像方向を移動することができる。   The camera unit 23 includes a camera 231 that captures images under the floor and obtains a monitoring target captured image, a pan motor 232 that performs panning (horizontal angle control) of the camera 231, and a tilt (vertical angle) of the camera 231. Control) and a camera control unit 234 for controlling various functions in the camera unit 23. When the communication unit 22 receives the imaging direction instruction information, the camera control unit 234 controls the pan motor 232 and the tilt motor 233 based on the pan / tilt angle included in the imaging direction instruction information. Then, the imaging direction of the camera 231 is moved. In the present embodiment, at least one or both of the pan motor 232 and the tilt motor 233 constitute an operation unit that controls the imaging direction of the camera. That is, in the camera unit 23, the panning / tilting operation is executed by the panning motor 232 and the tilting motor 233, thereby moving the imaging direction of the camera 231.

ロボット制御部24は、通信部22において、遠隔操作コマンドが受信されると、走行用モータ25を制御して、移動ロボット20の地上における位置を移動させる。また、走行用モータ25は、車輪又はクローラを駆動する駆動部であり、移動ロボット20を移動させる。なお、本実施形態では、走行用モータ25によっても動作部を構成することができる。つまり、移動ロボット20では、走行用モータ25によって移動ロボット20が移動することで、カメラ231の撮像方向を移動することができる。また、このとき、移動ロボット20では、パン用モータ232やチルト用モータ233と併用して撮像方向を移動してもよい。   When the communication unit 22 receives a remote operation command, the robot control unit 24 controls the traveling motor 25 to move the position of the mobile robot 20 on the ground. The traveling motor 25 is a drive unit that drives a wheel or a crawler, and moves the mobile robot 20. In the present embodiment, the operating unit can also be configured by the traveling motor 25. That is, in the mobile robot 20, the imaging direction of the camera 231 can be moved by moving the mobile robot 20 by the traveling motor 25. At this time, the mobile robot 20 may move the imaging direction in combination with the pan motor 232 and the tilt motor 233.

各種センサ26は、移動ロボット20の方位を検出する方位センサや、ロータリエンコーダなどを用いて走行距離を検出する距離検出センサなどが備えられている。   The various sensors 26 include an orientation sensor that detects the orientation of the mobile robot 20, a distance detection sensor that detects a travel distance using a rotary encoder, and the like.

(床下点検システムの制御動作)
次に、床下点検システム1000の制御動作について説明する。より具体的には、操作端末10によって指示ベクトルrが入力される際の制御動作と、床下点検システム1000においてカメラ231の撮像方向を移動する際の制御動作について説明する。
(Control operation of underfloor inspection system)
Next, the control operation of the underfloor inspection system 1000 will be described. More specifically, a control operation when the instruction vector r is input by the operation terminal 10 and a control operation when moving the imaging direction of the camera 231 in the underfloor inspection system 1000 will be described.

(指示ベクトルが入力される際の制御動作)
まず、操作端末10によって指示ベクトルrが入力される際の制御動作について説明する。図11に示すように、ステップS11において、操作端末10では、表示部14が、移動ロボット20のカメラ231によって撮像された監視対象撮像画像Fを表示する。
(Control action when instruction vector is input)
First, the control operation when the instruction vector r is input by the operation terminal 10 will be described. As shown in FIG. 11, in step S <b> 11, on the operation terminal 10, the display unit 14 displays the monitoring target captured image F captured by the camera 231 of the mobile robot 20.

ステップS12において、操作端末10では、操作制御部16の制御部164が、入力部15において、ユーザによってマウスダウンが行われたか否かを判定する。なお、マウスダウンが行われなかった場合、動作を終了する。   In step S <b> 12, in the operation terminal 10, the control unit 164 of the operation control unit 16 determines whether or not the mouse is down by the user in the input unit 15. If the mouse is not down, the operation is terminated.

ステップS13において、操作制御部16の制御部164が、入力部15において、マウスダウンが行われたと判定した場合、ドラッグ操作と、マウスアップが行われたことを検出する。また、マウスダウンが行われた座標を始点座標P1とし、マウスアップが行われた座標を終点座標P2として、指示ベクトルrを表示部14に表示する。なお、制御部164は、ドラッグ操作中(マウスダウン中)も、マウスダウンが行われた座標P1からユーザによって操作されているカーソルKまでのベクトルを、表示部14に表示させる。   In step S <b> 13, when the control unit 164 of the operation control unit 16 determines that the mouse down is performed in the input unit 15, it detects that the drag operation and the mouse up are performed. Further, the instruction vector r is displayed on the display unit 14 with the coordinate where the mouse is down as the start point coordinate P1 and the coordinate where the mouse is up as the end point coordinate P2. Note that the control unit 164 causes the display unit 14 to display a vector from the coordinate P1 where the mouse is down to the cursor K operated by the user even during a drag operation (during mouse down).

ステップS14において、操作端末10では、入力部15が、マウスダウンが行われた座標を始点座標P1と、マウスアップが行われた座標を終点座標P2とを受け付けて、始点座標P1と終点座標P2を含む指示ベクトル情報を操作制御部16に出力する。   In step S14, in the operation terminal 10, the input unit 15 receives the start point coordinate P1 as the coordinate where the mouse is down and the end point coordinate P2 as the coordinate where the mouse is up, and the start point P1 and the end point coordinate P2. Is output to the operation control unit 16.

ステップS15において、操作制御部16の制御部164では、指示ベクトル情報を入力すると、指示ベクトル情報に含まれる始点座標P1と終点座標P2から指示ベクトルrを取得する。このようにして、操作端末10では、指示ベクトルrが取得される。   In step S15, when the instruction vector information is input, the control unit 164 of the operation control unit 16 acquires the instruction vector r from the start point coordinates P1 and the end point coordinates P2 included in the instruction vector information. In this way, the instruction vector r is acquired at the operation terminal 10.

(カメラの撮像方向を移動する際の制御動作)
次に、図12を参照し、床下点検システム1000においてカメラ231の撮像方向を移動する際の制御動作について説明する。より、具体的には、操作端末10の操作制御部16が、カメラ231の撮像方向の移動を指示し、カメラユニット23の制御部234が、カメラ231の撮像方向を移動する際の制御動作について説明する。
(Control action when moving the imaging direction of the camera)
Next, with reference to FIG. 12, the control operation when moving the imaging direction of the camera 231 in the underfloor inspection system 1000 will be described. More specifically, the operation control unit 16 of the operation terminal 10 instructs the movement of the imaging direction of the camera 231, and the control operation when the control unit 234 of the camera unit 23 moves the imaging direction of the camera 231. explain.

図12に示すように、ステップS101において、操作端末10の操作制御部16では、制御部164が、送受信部162を介して、入力部15から指示ベクトルrに関する指示ベクトル情報を取得する。   As illustrated in FIG. 12, in step S <b> 101, in the operation control unit 16 of the operation terminal 10, the control unit 164 acquires instruction vector information related to the instruction vector r from the input unit 15 via the transmission / reception unit 162.

ステップS102において、制御部164は、記憶部163を参照し、第3モードに「使用」が対応付けて記憶されているか否かを判定する。   In step S <b> 102, the control unit 164 refers to the storage unit 163 and determines whether “use” is stored in association with the third mode.

ステップS103において、制御部164は、第3モードに「使用」が対応付けて記憶されていると判定すると、指示ベクトル情報を、補正ベクトル算出部167と移動ベクトル算出部168とに出力する。また、補正ベクトル算出部167は、指示ベクトル情報を入力すると、指示ベクトル情報に含まれる指示ベクトルの始点座標P1と終点座標P2とを結ぶ第1直線を算出する。また、補正ベクトル算出部167は、監視対象撮像画像Fの中心(原点)を通過し、算出した第1直線と直交する第2直線を算出する。また、補正ベクトル算出部167は、第1直線と第2直線との交点P3とし、当該交点P3座標(x,y)を算出する。また、補正ベクトル算出部167は、移動前(現在)の監視対象撮像画像Fの原点を始点座標(0,0)とし、算出した交点P3を終点座標(x,y)とする補正ベクトルr2を算出する。また、補正ベクトル算出部167は、算出した補正ベクトルr2を、移動ベクトル算出部168に出力する。 In step S <b> 103, when determining that “use” is stored in association with the third mode, the control unit 164 outputs the instruction vector information to the correction vector calculation unit 167 and the movement vector calculation unit 168. Further, when the instruction vector information is input, the correction vector calculation unit 167 calculates a first straight line connecting the start point coordinates P1 and the end point coordinates P2 of the instruction vector included in the instruction vector information. Further, the correction vector calculation unit 167 calculates a second straight line that passes through the center (origin) of the monitoring target captured image F and is orthogonal to the calculated first straight line. The correction vector calculation unit 167 calculates an intersection P3 coordinate (x 2 , y 2 ) as an intersection P3 between the first straight line and the second straight line. Further, the correction vector calculation unit 167 sets the origin of the monitoring target captured image F before (current) as the start point coordinates (0, 0) and the calculated intersection point P3 as the end point coordinates (x 2 , y 2 ). r2 is calculated. In addition, the correction vector calculation unit 167 outputs the calculated correction vector r2 to the movement vector calculation unit 168.

ステップS104において、移動ベクトル算出部168は、制御部164から指示ベクトル情報を入力し、指示ベクトルrを取得する。また、移動ベクトル算出部168は、補正ベクトル算出部167から補正ベクトルr2を入力する。また、移動ベクトル算出部168は、重複領域算出部165から重複領域の面積Sを取得する。また、移動ベクトル算出部168は、取得した情報に基づいて、監視対象撮像画像の中心から、補正ベクトルr2と修正ベクトルr1とを加算した移動ベクトルr3を算出する。このとき、移動ベクトル算出部168は、移動前の監視対象撮像画像と移動後の監視対象撮像画像との間に重複領域を有するように、修正ベクトルr1の長さ成分を調節し、移動後の監視対象撮像画像の中心の座標(x,y)を算出する。また、移動ベクトル算出部168は、移動前の監視対象撮像画像Fの中心の座標(0,0)を始点とし、移動後の監視対象撮像画像Fmの中心の座標(x,y)を終点とする、移動ベクトルr3(x,y)を算出する。また、移動ベクトル算出部168は、算出した移動ベクトルr3を、撮像方向指示部169に出力する。   In step S104, the movement vector calculation unit 168 receives the instruction vector information from the control unit 164, and acquires the instruction vector r. The movement vector calculation unit 168 receives the correction vector r2 from the correction vector calculation unit 167. In addition, the movement vector calculation unit 168 acquires the area S of the overlap region from the overlap region calculation unit 165. Further, the movement vector calculation unit 168 calculates a movement vector r3 obtained by adding the correction vector r2 and the correction vector r1 from the center of the monitoring target captured image based on the acquired information. At this time, the movement vector calculation unit 168 adjusts the length component of the correction vector r1 so as to have an overlapping area between the monitoring target captured image before the movement and the monitoring target captured image after the movement, and after the movement. The coordinates (x, y) of the center of the monitoring target captured image are calculated. In addition, the movement vector calculation unit 168 uses the coordinates (x, y) of the center of the monitoring target captured image F before the movement as the start point and the coordinates (x, y) of the center of the monitoring target captured image Fm after the movement as the end point. The movement vector r3 (x, y) is calculated. Further, the movement vector calculation unit 168 outputs the calculated movement vector r3 to the imaging direction instruction unit 169.

ステップS105において、撮像方向指示部169は、移動ベクトルr3を入力すると、当該移動ベクトルr3に基づいて、カメラ231の撮像方向を移動する際の角度を示すパン・チルト角度を算出する。また、撮像方向指示部169は、算出したパン・チルト角度を含む撮像方向指示情報を、通信部12を介して、移動ロボット20に送信する。なお、このとき送信される撮像方向指示情報は、第3モードに対応するパン・チルト角度を含む撮像方向指示情報である。   In step S105, when the imaging direction instruction unit 169 receives the movement vector r3, the imaging direction instruction unit 169 calculates a pan / tilt angle indicating an angle when the imaging direction of the camera 231 is moved based on the movement vector r3. The imaging direction instruction unit 169 transmits imaging direction instruction information including the calculated pan / tilt angle to the mobile robot 20 via the communication unit 12. The imaging direction instruction information transmitted at this time is imaging direction instruction information including a pan / tilt angle corresponding to the third mode.

ステップS106において、移動ロボット20では、カメラ制御部234が、通信部22を介して、撮像方向指示情報を受信する。また、カメラ制御部234は、撮像方向指示情報に含まれるパン・チルト角度に基づいて、パン用モータ232及びチルト用モータ233を制御し、カメラ231の撮像方向を移動する。また、カメラ制御部234は、撮像方向を移動する際、図9に示すように、移動前の監視対象撮像画像Fと移動後の監視対象撮像画像Fmaとが重複する重複領域RAを残すように撮像方向を移動する。   In step S <b> 106, in the mobile robot 20, the camera control unit 234 receives imaging direction instruction information via the communication unit 22. Further, the camera control unit 234 controls the pan motor 232 and the tilt motor 233 based on the pan / tilt angle included in the imaging direction instruction information, and moves the imaging direction of the camera 231. Further, when moving in the imaging direction, the camera control unit 234 leaves an overlapping area RA where the monitoring target captured image F before the movement and the monitoring target captured image Fma after the movement overlap as shown in FIG. Move the imaging direction.

ステップS111において、制御部164は、第3モードに「使用」が対応付けて記憶されていないと判定すると、指示ベクトル情報を、修正ベクトル算出部166と補正ベクトル算出部167とに出力する。   In step S <b> 111, when determining that “use” is not stored in association with the third mode, the control unit 164 outputs instruction vector information to the correction vector calculation unit 166 and the correction vector calculation unit 167.

また、修正ベクトル算出部166は、制御部164から指示ベクトル情報を受信すると、指示ベクトル情報に含まれる指示ベクトルrの始点座標P1と終点座標P2と、重複領域算出部165から重複領域の面積Sを取得する。また、修正ベクトル算出部166は、始点座標P1と終点座標P2と一定面積Sとに基づいて、移動前の監視対象撮像画像Fの中心を始点座標(0,0)とし、移動後の監視対象撮像画像Fmの中心の座標(x,y)を終点座標とする修正ベクトルr1を算出する。   Further, when the correction vector calculation unit 166 receives the instruction vector information from the control unit 164, the correction vector calculation unit 166 receives the start point coordinates P1 and the end point coordinates P2 of the instruction vector r included in the instruction vector information, and the overlap region calculation unit 165 from the overlap region area S. To get. Further, the correction vector calculation unit 166 sets the center of the monitoring target captured image F before the movement as the starting point coordinates (0, 0) based on the starting point coordinates P1, the end point coordinates P2, and the constant area S, and the monitoring target after the movement. A correction vector r1 having the coordinates (x, y) of the center of the captured image Fm as the end point coordinates is calculated.

ステップS112において、補正ベクトル算出部167は、制御部164から指示ベクトル情報を入力すると、補正ベクトルr2を算出する。なお、ステップS112の動作は、上述したステップS103の動作と同様であるため、ここでは説明を省略する。また、補正ベクトル算出部167は、算出した補正ベクトルr2を、撮像方向指示部169に出力する。   In step S112, the correction vector calculation unit 167 calculates the correction vector r2 when the instruction vector information is input from the control unit 164. Note that the operation in step S112 is the same as the operation in step S103 described above, and a description thereof will be omitted here. In addition, the correction vector calculation unit 167 outputs the calculated correction vector r2 to the imaging direction instruction unit 169.

ステップS113において、撮像方向指示部169は、記憶部163を参照し、第1モードに「使用」が対応付けて記憶されているか否かを判定する。   In step S113, the imaging direction instruction unit 169 refers to the storage unit 163 and determines whether or not “use” is stored in association with the first mode.

ステップS114において、撮像方向指示部169は、第1モードに「使用」が対応付けて記憶されていると判定すると、修正ベクトル算出部166によって算出された修正ベクトルr1に基づいて、パン用モータ232及びチルト用モータ233を制御する際の角度を算出する。また、撮像方向指示部169は、算出したパン・チルト角度を含む撮像方向指示情報を、通信部12を介して、移動ロボット20に送信する。なお、このとき送信される撮像方向指示情報は、第1モードに対応するパン・チルト角度を含む撮像方向指示情報である。   In step S114, when the imaging direction instruction unit 169 determines that “use” is stored in association with the first mode, the panning motor 232 is based on the correction vector r1 calculated by the correction vector calculation unit 166. And an angle for controlling the tilt motor 233 is calculated. The imaging direction instruction unit 169 transmits imaging direction instruction information including the calculated pan / tilt angle to the mobile robot 20 via the communication unit 12. Note that the imaging direction instruction information transmitted at this time is imaging direction instruction information including a pan / tilt angle corresponding to the first mode.

ステップS115において、移動ロボット20では、カメラ制御部234が、通信部22を介して、撮像方向指示情報を受信する。また、カメラ制御部234は、撮像方向指示情報に含まれるパン・チルト角度に基づいて、パン用モータ232及びチルト用モータ233を制御し、カメラ231の撮像方向を移動する。また、カメラ制御部234は、撮像方向を移動する際、図7に示すように、移動前の監視対象撮像画像Fと移動後の監視対象撮像画像Fmとが重複する重複領域RAを残すように撮像方向を移動する。   In step S 115, in the mobile robot 20, the camera control unit 234 receives imaging direction instruction information via the communication unit 22. Further, the camera control unit 234 controls the pan motor 232 and the tilt motor 233 based on the pan / tilt angle included in the imaging direction instruction information, and moves the imaging direction of the camera 231. Further, when moving the imaging direction, the camera control unit 234 leaves an overlapping region RA where the monitoring target captured image F before the movement and the monitoring target captured image Fm after the movement overlap as shown in FIG. Move the imaging direction.

ステップS121において、撮像方向指示部169は、第1モードに「使用」が対応付けて記憶されていない判定、つまり、第2モードに「使用」が対応付けて記憶されていると判定すると、修正ベクトル算出部166によって算出された修正ベクトルr1と、補正ベクトル算出部167によって算出された補正ベクトルr2とを入力する。また、撮像方向指示部169は、補正ベクトルr2に基づいて、カメラ231の撮像方向を移動する際の角度を示す第1パン・チルト角度を算出する。また、撮像方向指示部169は、算出した第1パン・チルト角度を含む撮像方向指示情報を、移動ロボット20に送信する。   In step S121, when the imaging direction instruction unit 169 determines that “use” is not stored in association with the first mode, that is, determines that “use” is stored in association with the second mode, the correction is performed. The correction vector r1 calculated by the vector calculation unit 166 and the correction vector r2 calculated by the correction vector calculation unit 167 are input. Further, the imaging direction instruction unit 169 calculates a first pan / tilt angle indicating an angle when the imaging direction of the camera 231 is moved based on the correction vector r2. Further, the imaging direction instruction unit 169 transmits imaging direction instruction information including the calculated first pan / tilt angle to the mobile robot 20.

ステップS122において、移動ロボット20では、カメラ制御部234が、通信部22を介して、撮像方向指示情報を受信する。また、カメラ制御部234は、撮像方向指示情報に含まれる第1パン・チルト角度に基づいて、パン用モータ232及びチルト用モータ233を制御し、カメラ231の撮像方向を移動する。   In step S <b> 122, in the mobile robot 20, the camera control unit 234 receives imaging direction instruction information via the communication unit 22. Further, the camera control unit 234 controls the pan motor 232 and the tilt motor 233 based on the first pan / tilt angle included in the imaging direction instruction information, and moves the imaging direction of the camera 231.

ステップS123において、また、撮像方向指示部169は、修正ベクトルr1に基づいて、カメラの撮像方向を移動する際の角度を示す第2パン・チルト角度を算出する。また、撮像方向指示部169は、算出した第2パン・チルト角度を含む撮像方向指示情報を、移動ロボット20に送信する。   In step S123, the imaging direction instruction unit 169 calculates a second pan / tilt angle indicating an angle when the imaging direction of the camera is moved based on the correction vector r1. Further, the imaging direction instruction unit 169 transmits imaging direction instruction information including the calculated second pan / tilt angle to the mobile robot 20.

ステップS124において、撮像方向指示部169は、算出した第2パン・チルト角度を含む撮像方向指示情報を、移動ロボット20に送信する。移動ロボット20では、カメラ制御部234が、通信部22を介して、撮像方向指示情報を受信する。また、カメラ制御部234は、撮像方向指示情報に含まれる第2パン・チルト角度に基づいて、パン用モータ232及びチルト用モータ233を制御し、カメラ231の撮像方向を移動する。なお、上述したステップS121及びS123において送信される撮像方向指示情報は、第2モードに対応するパン・チルト角度を含む撮像方向指示情報である。よって、第2モードでは、カメラ制御部234は、ステップS122及びS124の動作において、撮像方向を移動する際、図13に示すように、補正ベクトルr2に従って撮像方向を移動した後、修正ベクトルr1に従って撮像方向を移動する。   In step S <b> 124, the imaging direction instruction unit 169 transmits imaging direction instruction information including the calculated second pan / tilt angle to the mobile robot 20. In the mobile robot 20, the camera control unit 234 receives imaging direction instruction information via the communication unit 22. Further, the camera control unit 234 controls the pan motor 232 and the tilt motor 233 based on the second pan / tilt angle included in the imaging direction instruction information, and moves the imaging direction of the camera 231. Note that the imaging direction instruction information transmitted in steps S121 and S123 described above is imaging direction instruction information including a pan / tilt angle corresponding to the second mode. Therefore, in the second mode, when the camera control unit 234 moves the imaging direction in the operations of steps S122 and S124, as shown in FIG. 13, after moving the imaging direction according to the correction vector r2, the camera control unit 234 follows the correction vector r1. Move the imaging direction.

このように、床下点検システム1000では、撮像方向指示部169が、カメラ231の撮像方向を移動する際、第1乃至第3モードのいずれかのモードに対応する撮像方向指示情報をカメラ制御部234に送信し、カメラ制御部234が、受信した撮像方向指示情報に応じて撮像方向を移動する。なお、操作端末10は、コンピュータとして機能し、インストールされているプログラム(カメラ制御プログラム)によって、通信部12、表示部14、入力部15、記憶部163、制御部164、重複領域算出部165、修正ベクトル算出部166、補正ベクトル算出部167、移動ベクトル算出部168、撮像方向指示部169の各種機能を実行させてもよい。   As described above, in the underfloor inspection system 1000, when the imaging direction instruction unit 169 moves the imaging direction of the camera 231, the camera control unit 234 displays imaging direction instruction information corresponding to one of the first to third modes. The camera control unit 234 moves the imaging direction in accordance with the received imaging direction instruction information. The operation terminal 10 functions as a computer, and the communication unit 12, the display unit 14, the input unit 15, the storage unit 163, the control unit 164, the overlapping area calculation unit 165, and the installed program (camera control program). Various functions of the correction vector calculation unit 166, the correction vector calculation unit 167, the movement vector calculation unit 168, and the imaging direction instruction unit 169 may be executed.

(第1実施形態に係る床下点検システムの作用・効果)
本実施形態に係る床下点検システム1000によれば、監視対象撮像画像Fを参照するユーザによって、監視対象撮像画像F上の任意の方向に入力された指示ベクトルrに基づいて、カメラ231の撮像方向を移動する。ここで、従来技術では、カメラ231の撮像方向を移動させる場合、ユーザは、画面上の固定位置に設けられた箇所(例えば、中央に設けられたアイコン)に、所定の操作(例えば、アイコンのドラッグ)を行わなければカメラ231の撮像方向を移動させることができなかった。この場合、監視対象物画像に沿って、カメラ231の撮像方向をより正確に移動させる際の操作性が悪かった。しかし、本発明に係る床下点検システム1000では、ユーザが監視対象撮像画像上の任意箇所に指示ベクトルrを入力して、撮像方向を移動させる。つまり、かかる床下点検システム1000では、表示されている監視対象物画像上に直接沿った位置に指示ベクトルrを入力することが可能になり、カメラ231の撮像方向をより正確に、かつ容易に撮像方向を移動させることができる。よって、かかる床下点検システム1000によれば、監視対象物画像の一部を含む監視対象撮像画像を取得する場合に、監視対象物に沿ってカメラの撮像方向をより正確に移動させつつ、操作性を向上させることができる。
(Operation and effect of the underfloor inspection system according to the first embodiment)
According to the underfloor inspection system 1000 according to the present embodiment, the imaging direction of the camera 231 is based on an instruction vector r input in an arbitrary direction on the monitoring target captured image F by a user who refers to the monitoring target captured image F. To move. Here, in the related art, when moving the imaging direction of the camera 231, the user performs a predetermined operation (for example, the icon of the icon) at a position (for example, an icon provided in the center) provided at a fixed position on the screen. Unless dragging is performed, the imaging direction of the camera 231 cannot be moved. In this case, the operability when moving the imaging direction of the camera 231 more accurately along the monitoring object image is poor. However, in the underfloor inspection system 1000 according to the present invention, the user inputs the instruction vector r to an arbitrary location on the monitoring target captured image and moves the imaging direction. That is, in the underfloor inspection system 1000, the instruction vector r can be input at a position directly along the displayed monitoring target object image, and the imaging direction of the camera 231 can be captured more accurately and easily. The direction can be moved. Therefore, according to the underfloor inspection system 1000, when acquiring a monitoring target captured image including a part of the monitoring target object image, the operability is improved while moving the imaging direction of the camera along the monitoring target more accurately. Can be improved.

更に、かかる床下点検システム1000によれば、移動前の監視対象撮像画像Fと移動後の監視対象撮像画像Fmとに一定面積Sの重複領域RAが残るように撮像方向を移動するので、重複領域を有する二つの画像を効率よく取得することができる。   Furthermore, according to the underfloor inspection system 1000, since the imaging direction is moved so that the overlapping area RA of a certain area S remains in the monitoring target captured image F before movement and the monitoring target captured image Fm after movement, the overlapping area It is possible to efficiently acquire two images having

また、本実施形態に係る床下点検システム1000では、指示ベクトルrが入力された監視対象撮像画像F上の位置に向かう補正ベクトルr2を算出し、補正ベクトルr2と修正ベクトルr1とを加算した移動ベクトルr3に基づいて、撮像方向を移動ことができる。つまり、本実施形態に係る床下点検システム1000では、ユーザは、監視を望む監視対象物画像上にあわせて指示ベクトルrを入力すれば、当該指示ベクトルrの入力位置に向かう補正ベクトルr2も用いて、撮像方向を移動するので、監視対象物画像上の位置により近づくように、撮像方向を移動することができる。   Further, in the underfloor inspection system 1000 according to the present embodiment, a correction vector r2 directed to a position on the monitoring target captured image F to which the instruction vector r is input is calculated, and a movement vector obtained by adding the correction vector r2 and the correction vector r1. The imaging direction can be moved based on r3. That is, in the underfloor inspection system 1000 according to the present embodiment, if the user inputs the instruction vector r in accordance with the monitoring object image desired to be monitored, the correction vector r2 directed to the input position of the instruction vector r is also used. Since the imaging direction is moved, the imaging direction can be moved so as to be closer to the position on the monitoring target object image.

また、本実施形態に係る床下点検システム1000では、撮像方向を移動する際、移動方法の異なる第1乃至第3モードを、ユーザからの指示に応じて切替ることができる。また、本実施形態に係る床下点検システム1000では、第1モードにおいて、修正ベクトルr1に沿って、カメラ231の撮像方向を移動する。この第1モードは、現在の監視対象撮像画像上の適切な位置に監視対象物画像が含まれている場合に有効である。例えば、ユーザは、床下天井に接する基礎壁を監視対象物とし、当該基礎壁の一部を含む監視対象撮像画像を取得したい場合、図14に示すように、現在(移動前)の監視対象撮像画像Fに、画面上の床下天井と基礎壁とが接するラインに沿って指示ベクトルrを入力するだけで、移動後の監視対象撮像画像Fmに向けて、カメラ231の撮像方向を移動することができる。   Moreover, in the underfloor inspection system 1000 according to the present embodiment, when moving in the imaging direction, the first to third modes having different moving methods can be switched according to an instruction from the user. In the underfloor inspection system 1000 according to the present embodiment, the imaging direction of the camera 231 is moved along the correction vector r1 in the first mode. This first mode is effective when the monitoring target object image is included in an appropriate position on the current monitoring target captured image. For example, when the user wants to acquire a monitoring target captured image including a part of the base wall as a monitoring target, the base wall in contact with the floor under the ceiling, as shown in FIG. It is possible to move the imaging direction of the camera 231 toward the monitoring target captured image Fm after the movement only by inputting the instruction vector r along the line where the underfloor ceiling and the base wall on the screen are in contact with the image F. it can.

また、本実施形態に係る床下点検システム1000では、第2モードにおいて、補正ベクトルr2に従って撮像方向を移動した後、修正ベクトルr1に従って撮像方向を移動するので、ユーザが、監視を望む監視対象物画像にあわせて指示ベクトルrを入力するだけで、監視対象物画像をより確実に含む監視対象物撮像画像を取得することができる。この第2モードは、移動前(現在)の監視対象撮像画像F上の適切な位置に監視対象物画像が含まれていない場合に有効である。例えば、ユーザは、ケーブルを監視対象物として、監視対象撮像画像を取得したい場合、図15に示すように、移動前(現在)の監視対象撮像画像Fの右上などの端に監視対象物画像が含まれる場合がある。かかる場合、ケーブルに沿って指示ベクトルrを入力するだけで、監視対象撮像画像F´を経由してケーブルを監視対象撮像画像の中央に含めた後、移動後の監視対象撮像画像Fmaに向けて、カメラ231の撮像方向を移動することができる。   Further, in the underfloor inspection system 1000 according to the present embodiment, in the second mode, the imaging direction is moved according to the correction vector r1 after the imaging direction is moved according to the correction vector r2. Therefore, it is possible to acquire a monitored object captured image including the monitored object image more reliably by simply inputting the instruction vector r. This second mode is effective when the monitoring target object image is not included in an appropriate position on the monitoring target captured image F before (current) movement. For example, when a user wants to acquire a monitoring target captured image using a cable as a monitoring target, as shown in FIG. 15, the monitoring target image is located at the upper end or the like of the monitoring target captured image F before movement (current). May be included. In such a case, just by inputting the instruction vector r along the cable, the cable is included in the center of the monitoring target captured image via the monitoring target captured image F ′, and then moved toward the monitored target captured image Fma. The imaging direction of the camera 231 can be moved.

また、本実施形態に係る床下点検システム1000では、第3モードにおいて、移動ベクトルr3に従って、撮像方向を移動する。この第3モードは、移動前(現在)の監視対象撮像画像Fに含まれる監視対象物画像の先を、より早く監視したい場合に有効である。例えば、ユーザは、ケーブルを監視対象物として、監視対象撮像画像を取得したい場合、図15に示すように、ケーブルに沿って指示ベクトルrを入力するだけで、移動ベクトルr3によって示される移動後の監視対象撮像画像Fmaに向けて、カメラ231の撮像方向をより早く移動することができる。   In the underfloor inspection system 1000 according to the present embodiment, the imaging direction is moved according to the movement vector r3 in the third mode. The third mode is effective when it is desired to monitor the tip of the monitoring object image included in the monitoring target captured image F before (current) movement earlier. For example, when a user wants to acquire a monitoring target captured image using a cable as a monitoring target, the user simply inputs an instruction vector r along the cable as shown in FIG. The imaging direction of the camera 231 can be moved faster toward the monitoring target captured image Fma.

このように、本実施形態に係る床下点検システム1000では、移動前(現在)の監視対象撮像画像F上の監視対象物画像の位置に応じて、第1乃至第3モードを切替えて、移動後の監視対象撮像画像Fm(又はFma)に向けてカメラ231の撮像方向を移動することができる。   As described above, in the underfloor inspection system 1000 according to the present embodiment, the first to third modes are switched according to the position of the monitoring object image on the monitoring target captured image F before (current), and after the movement. The imaging direction of the camera 231 can be moved toward the monitoring target captured image Fm (or Fma).

[第2実施形態]
本発明の第2実施形態について、第1実施形態との相違点に着目して説明する。本実施形態では、操作端末10において、操作制御部16の重複領域算出部165の構成を除き、第1実施形態と同様である。よって、本実施形態に係る重複領域算出部165の構成について説明する。
[Second Embodiment]
The second embodiment of the present invention will be described by paying attention to differences from the first embodiment. In the present embodiment, the operation terminal 10 is the same as the first embodiment except for the configuration of the overlapping area calculation unit 165 of the operation control unit 16. Therefore, the configuration of the overlapping area calculation unit 165 according to the present embodiment will be described.

(本発明の第2実施形態に係る操作制御部の構成)
上述した第1実施形態では、重複領域算出部165が、重複領域の面積Sを一定面積Sとして算出していたが、本実施形態に係る重複領域算出部165は、指示ベクトルrの長さ成分に基づいて、重複領域RAの面積Sを算出する。具体的に、重複領域算出部165は、制御部164から指示ベクトル情報を受信すると、当該指示ベクトル情報に含まれる指示ベクトルrの始点座標P1と終点座標P2とに基づいて、指示ベクトルrの長さ成分Dを算出する。また、重複領域算出部165は、算出した長さ成分Dが大きいほど重複領域RAの面積Sが小さくなるように算出する。
(Configuration of Operation Control Unit According to Second Embodiment of the Present Invention)
In the first embodiment described above, the overlapping region calculation unit 165 calculates the area S of the overlapping region as the constant area S. However, the overlapping region calculation unit 165 according to the present embodiment calculates the length component of the instruction vector r. Based on the above, the area S of the overlapping region RA is calculated. Specifically, when the overlapping area calculation unit 165 receives the instruction vector information from the control unit 164, the overlapping area calculation unit 165 determines the length of the instruction vector r based on the start point coordinates P1 and the end point coordinates P2 of the instruction vector r included in the instruction vector information. The thickness component D is calculated. In addition, the overlapping area calculation unit 165 calculates the area S of the overlapping area RA to be smaller as the calculated length component D is larger.

ここで、監視対象撮像画像の水平方向の間隔をHとし、垂直方向の間隔をVとすると、表示部14に表示される監視対象撮像画像F上において、指示ベクトルrが最も長くなる長さ成分Dは、下記の(15)式によって示される。また、最も大きい重複領域RAの面積Sは、(16)式で示される。

Figure 2009016956


Figure 2009016956
Here, when the horizontal interval of the monitoring target captured image is H and the vertical interval is V, the length component in which the instruction vector r is the longest on the monitoring target captured image F displayed on the display unit 14. D is represented by the following equation (15). In addition, the area S of the largest overlapping region RA is expressed by equation (16).
Figure 2009016956


Figure 2009016956



また、重複領域算出部165は、長さ成分Dに応じて、重複領域RAの面積Sを、下記の(17)式に基づいて、算出する。また、重複領域算出部165は、(17)式に基づいて算出した面積Sを、修正ベクトル算出部166に出力する。

Figure 2009016956


Further, the overlapping region calculation unit 165 calculates the area S of the overlapping region RA based on the length component D based on the following equation (17). Further, the overlapping area calculation unit 165 outputs the area S calculated based on the equation (17) to the correction vector calculation unit 166.
Figure 2009016956



修正ベクトル算出部166は、重複領域算出部165によって算出された重複領域RAの面積Sに応じて、修正ベクトルr1の長さ成分を調整する。


The correction vector calculation unit 166 adjusts the length component of the correction vector r1 according to the area S of the overlapping region RA calculated by the overlapping region calculation unit 165.

ここで、図16(a)には、指示ベクトルrの長さ成分がDLの場合の重複領域RAと、修正ベクトルr1とが示されている。また、図16(b)には、指示ベクトルrが、長さ成分DLよりも小さい長さ成分がDSの場合の重複領域RAと、修正ベクトルr1とが示されている。   Here, FIG. 16A shows the overlapping area RA and the correction vector r1 when the length component of the instruction vector r is DL. FIG. 16B shows an overlapping area RA and a correction vector r1 when the instruction vector r is DS whose length component is smaller than the length component DL.

図16(a)乃至(b)に示すように、重複領域算出部165は、指示ベクトルrの長さ成分Dが長いほど、重複領域RAの面積Sが小さくなるように算出する。これによって、修正ベクトル算出部166は、指示ベクトルrの長さ成分Dに応じた修正ベクトルr1を算出する。   As shown in FIGS. 16A and 16B, the overlapping area calculation unit 165 calculates the area S of the overlapping area RA to be smaller as the length component D of the instruction vector r is longer. Thus, the correction vector calculation unit 166 calculates a correction vector r1 corresponding to the length component D of the instruction vector r.

(第2実施形態に係る床下点検システムの作用・効果)
本実施形態に係る床下点検システム1000によれば、操作制御部16の重複領域算出部165では、ユーザによって入力された指示ベクトルrの長さ成分Dに応じて重複領域RAの面積Sを算出する。また、修正ベクトル算出部166は、当該重複領域RAの面積Sに応じて、修正ベクトルr1の長さ成分を算出する。つまり、かかる床下点検システム1000によれば、ユーザは、指示ベクトルrを入力する際、例えば、指示ベクトルrの長さ成分Dを加減する等の操作を行うだけで、移動前の監視対象撮像画像Fと移動後の監視対象撮像画像Fmとが重複する重複領域の面積Sを調節して撮像方向を移動させることができる。
(Operation and effect of the underfloor inspection system according to the second embodiment)
According to the underfloor inspection system 1000 according to the present embodiment, the overlapping region calculation unit 165 of the operation control unit 16 calculates the area S of the overlapping region RA according to the length component D of the instruction vector r input by the user. . The correction vector calculation unit 166 calculates the length component of the correction vector r1 according to the area S of the overlap region RA. That is, according to the underfloor inspection system 1000, when the user inputs the instruction vector r, for example, the user simply performs an operation such as adding or subtracting the length component D of the instruction vector r. It is possible to move the imaging direction by adjusting the area S of the overlapping region where F and the monitoring target captured image Fm after the movement overlap.

(第2実施形態に係る変形例)
第2実施形態に係る変形例について、上述した実施形態との相違点に着目して説明する。上述した第2実施形態では、修正ベクトル算出部166が、重複領域算出部165によって算出された面積Sに応じて、長さ成分を調整した修正ベクトルr1を算出するように構成されていたが、本実施形態では、移動ベクトル算出部168が、重複領域算出部165によって算出された面積Sに応じて、長さ成分を調整した修正ベクトルr1を算出すると共に、当該修正ベクトルr1に基づいて、移動ベクトルr3を算出する。
(Modification according to the second embodiment)
A modification according to the second embodiment will be described by focusing on the differences from the above-described embodiment. In the second embodiment described above, the correction vector calculation unit 166 is configured to calculate the correction vector r1 in which the length component is adjusted according to the area S calculated by the overlapping region calculation unit 165. In the present embodiment, the movement vector calculation unit 168 calculates a correction vector r1 in which the length component is adjusted according to the area S calculated by the overlapping region calculation unit 165, and moves based on the correction vector r1. Vector r3 is calculated.

具体的に、移動ベクトル算出部168は、重複領域算出部165によって上記(17)式に基づいて算出された面積Sを入力する。また、移動ベクトル算出部168は、入力した面積Sと、(9)乃至(10)式と、(13)乃至(14)式とに基づいて、移動ベクトルr3(x,y)を算出する。   Specifically, the movement vector calculation unit 168 inputs the area S calculated by the overlapping region calculation unit 165 based on the above equation (17). The movement vector calculation unit 168 calculates the movement vector r3 (x, y) based on the input area S, the expressions (9) to (10), and the expressions (13) to (14).

このように、本実施形態に係る床下点検システム1000によれば、重複領域算出部165が、指示ベクトルrの長さ成分Dに応じて重複領域RAの面積Sを算出し、移動ベクトル算出部168が、算出された面積Sに応じて、長さ成分を調整した移動ベクトルr3を算出する。よって、本実施形態に係る床下点検システム1000においても、上述した第2実施形態と同様の効果を奏することができる。   Thus, according to the underfloor inspection system 1000 according to the present embodiment, the overlapping region calculation unit 165 calculates the area S of the overlapping region RA according to the length component D of the instruction vector r, and the movement vector calculation unit 168. However, the movement vector r3 in which the length component is adjusted is calculated according to the calculated area S. Therefore, the underfloor inspection system 1000 according to the present embodiment can achieve the same effects as those of the second embodiment described above.

[第3実施形態]
以下に、本発明の第3実施形態に係る床下点検システム1000構成について、上述した実施形態との相違点に着目して説明する。ここで、本発明の第3実施形態に係る床下点検システム1000では、上述した重複領域算出部165と修正ベクトル算出部166との構成を除き、上述した実施形態と同様の構成である。よって、以下に重複領域算出部165と修正ベクトル算出部166との構成について説明する。
[Third Embodiment]
Hereinafter, the configuration of the underfloor inspection system 1000 according to the third embodiment of the present invention will be described by focusing on differences from the above-described embodiments. Here, the underfloor inspection system 1000 according to the third embodiment of the present invention has the same configuration as that of the above-described embodiment except for the configurations of the overlapping region calculation unit 165 and the correction vector calculation unit 166 described above. Therefore, the configuration of the overlapping area calculation unit 165 and the correction vector calculation unit 166 will be described below.

上述した第2実施形態では、重複領域算出部165は、指示ベクトルrの長さ成分Dに応じて、重複領域RAの面積Sを算出するように構成されていたが、本実施形態に係る重複領域算出部165は、面積を算出する代わりに、指示ベクトルrに基づいて、移動前の監視対象撮像画像F内に収まる第1楕円の形状と、移動後の監視対象撮像画像Fm内に収まる第2楕円の形状とを特定する係数を算出する。なお、かかる係数については、詳細を後述する。また、修正ベクトル算出部166は、重複領域算出部165によって算出された係数に基づいて、図17(a)に示すように、第1楕円C1Lの形状と、当該第1楕円C1Lに外接するように定められた第2楕円C2Lの形状とを算出する。また、修正ベクトル算出部166は、算出した第1楕円C1Lと第2楕円C2Lとに基づいて、指示ベクトルrの長さ成分を調整した修正ベクトルr1を算出する。これにより、移動前の監視対象撮像画像Fと移動後の監視対象撮像画像Fmには、重複領域RAが形成される。   In the second embodiment described above, the overlapping region calculation unit 165 is configured to calculate the area S of the overlapping region RA in accordance with the length component D of the instruction vector r, but the overlapping region according to the present embodiment. Instead of calculating the area, the region calculation unit 165 uses the instruction vector r to calculate the first ellipse shape that fits in the monitoring target captured image F before moving and the first ellipse shape that fits in the monitoring target captured image Fm after moving. A coefficient that identifies the shape of the two ellipses is calculated. Details of these coefficients will be described later. Further, the correction vector calculation unit 166 is based on the coefficient calculated by the overlapping region calculation unit 165 so as to circumscribe the shape of the first ellipse C1L and the first ellipse C1L as shown in FIG. And the shape of the second ellipse C2L determined in (1). The correction vector calculation unit 166 calculates a correction vector r1 in which the length component of the instruction vector r is adjusted based on the calculated first ellipse C1L and second ellipse C2L. Thereby, the overlapping area RA is formed in the monitoring target captured image F before the movement and the monitoring target captured image Fm after the movement.

以下に、本実施形態に係る重複領域算出部165と修正ベクトル算出部166との構成について具体的に説明する。なお、本実施形態において、第1楕円C1Lと第2楕円C2Lとは、同じ形状の楕円とする。また、第1楕円C1Lの中心と移動前の監視対象撮像画像Fの中心とは一致し、第2楕円C2Lの中心と移動後の監視対象撮像画像Fmの中心とは一致することとする。   Below, the structure of the overlap area | region calculation part 165 and the correction vector calculation part 166 which concern on this embodiment is demonstrated concretely. In the present embodiment, the first ellipse C1L and the second ellipse C2L are ellipses having the same shape. In addition, the center of the first ellipse C1L and the center of the monitoring target captured image F before the movement match, and the center of the second ellipse C2L and the center of the monitoring target captured image Fm after the movement match.

この場合、移動前の監視対象撮像画像Fの中心を原点座標(0,0)とし、移動後の監視対象撮像画像Fmの中心座標を(x,y)とすると、移動後の監視対象撮像画像Fmの中心の座標 (x,y)は、下記の(18)式によって示される。なお、下記の(18)式において、“a”は第1楕円C1Lと第2楕円C2Lとの長軸半径を示し、“b”は第1楕円C1Lと第2楕円C2Lとの短軸半径を示す。

Figure 2009016956
In this case, assuming that the center of the monitoring target captured image F before movement is the origin coordinate (0, 0) and the central coordinate of the monitoring target captured image Fm after movement is (x, y), the monitoring target captured image after movement is taken. The coordinates (x, y) of the center of Fm are expressed by the following equation (18). In the following equation (18), “a” represents the major axis radius of the first ellipse C1L and the second ellipse C2L, and “b” represents the minor axis radius of the first ellipse C1L and the second ellipse C2L. Show.
Figure 2009016956



また、本実施形態では、上記の(18)式において、“a”及び“b”は下記の(19)式によって示される。(19)式において、“k”は、指示ベクトルrの長さ成分Dに応じて変更される係数であり、重複領域算出部165は、係数“k”を下記に示す(20)式により算出する。


In this embodiment, in the above equation (18), “a” and “b” are represented by the following equation (19). In equation (19), “k” is a coefficient that is changed according to the length component D of the instruction vector r, and the overlapping region calculation unit 165 calculates the coefficient “k” using equation (20) shown below. To do.

具体的に、重複領域算出部165は、制御部164から指示ベクトル情報を受信すると、当該指示ベクトル情報に含まれる指示ベクトルrの始点座標P1と終点座標P2とに基づいて、指示ベクトルrの長さ成分Dを算出する。また、重複領域算出部165は、算出した長さ成分Dを(20)式に代入して係数“k”を算出する。なお、係数“k”は、長さ成分Dが大きいほど大きくなる値であり、0<k<1の範囲内の値で算出される。つまり、重複領域算出部165は、指示ベクトルrの長さ成分Dの長さが大きいほど、係数“k”が大きくなるように算出する。

Figure 2009016956


Figure 2009016956
Specifically, when the overlapping area calculation unit 165 receives the instruction vector information from the control unit 164, the overlapping area calculation unit 165 determines the length of the instruction vector r based on the start point coordinates P1 and the end point coordinates P2 of the instruction vector r included in the instruction vector information. The thickness component D is calculated. Further, the overlapping area calculation unit 165 calculates the coefficient “k” by substituting the calculated length component D into the equation (20). The coefficient “k” is a value that increases as the length component D increases, and is calculated as a value within a range of 0 <k <1. That is, the overlapping area calculation unit 165 calculates the coefficient “k” to be larger as the length of the length component D of the instruction vector r is larger.
Figure 2009016956


Figure 2009016956



ここで、算出した係数“k”は、(19)式に代入することで、第1楕円C1L及び第2楕円C2Lの長軸半径“a”と、第1楕円C1L及び第2楕円C2Lの短軸半径“b”とが求められる。つまり、重複領域算出部165は、指示ベクトルrの長さ成分Dに応じて、第1楕円C1L及び第2楕円C2Lの長軸半径“a”と短軸半径“b”を算出するための係数“k”を算出する。また、重複領域算出部165は、算出した係数“k”を修正ベクトル算出部166に出力する。


Here, the calculated coefficient “k” is substituted into the equation (19), so that the major axis radius “a” of the first ellipse C1L and the second ellipse C2L and the short ellipse C1L and the second ellipse C2L are short. A shaft radius “b” is determined. That is, the overlapping region calculation unit 165 calculates the major axis radius “a” and the minor axis radius “b” of the first ellipse C1L and the second ellipse C2L according to the length component D of the instruction vector r. “K” is calculated. In addition, the overlapping area calculation unit 165 outputs the calculated coefficient “k” to the correction vector calculation unit 166.

修正ベクトル算出部166は、制御部164から指示ベクトル情報を入力すると共に、重複領域算出部165から係数“k”を入力すると、移動後の監視対象撮像画像Fmの中心の座標 (x,y)を、算出する。ここで、移動後の監視対象撮像画像Fmの中心座標(x,y)は、上述した(18)乃至(19)式に基づいて、下記(21)式によって示される。なお、(21)式において、角度θは、指示ベクトルrの方向成分を示す角度である。よって、角度θは、指示ベクトル情報に含まれる始点座標P1と終点座標P2から、修正ベクトル算出部166によって算出される。また、(21)式において、“+”と“−”の符号は、指示ベクトルrの角度θが第1乃至第4象限の角度に応じて、変更する。例えば、指示ベクトルrの角度θを第1象限の角度(0度〜90度)とすると、(21)式において、符号は“x”,“y”共に“+”の符号となる。

Figure 2009016956
When the correction vector calculation unit 166 inputs the instruction vector information from the control unit 164 and also inputs the coefficient “k” from the overlapping region calculation unit 165, the coordinates (x, y) of the center of the monitored target captured image Fm after the movement are input. Is calculated. Here, the center coordinates (x, y) of the monitoring target captured image Fm after the movement are expressed by the following equation (21) based on the equations (18) to (19) described above. In the equation (21), the angle θ is an angle indicating the direction component of the instruction vector r. Therefore, the angle θ is calculated by the correction vector calculation unit 166 from the start point coordinates P1 and the end point coordinates P2 included in the instruction vector information. In the equation (21), the signs “+” and “−” are changed according to the angle θ of the instruction vector r according to the angles of the first to fourth quadrants. For example, if the angle θ of the instruction vector r is the angle in the first quadrant (0 degree to 90 degrees), in the equation (21), the sign is “+” for both “x” and “y”.
Figure 2009016956



ここで、図17(a)には、指示ベクトルrの長さ成分がDLの場合の重複領域RAと、修正ベクトルr1とが示されている。また、図17(b)には、指示ベクトルrが、長さ成分DLよりも小さい長さ成分DSの場合の重複領域RAと、修正ベクトルr1とが示されている。


Here, FIG. 17A shows the overlapping area RA and the correction vector r1 when the length component of the instruction vector r is DL. FIG. 17B shows an overlapping area RA and a correction vector r1 when the instruction vector r is a length component DS smaller than the length component DL.

図17(a)乃至(b)に示すように、重複領域算出部165は、指示ベクトルrの長さ成分Dが長いほど、第1楕円C1Lと第2楕円C2Lの長軸半径“a”及び短軸半径“b”が大きくなるように係数“k”を算出するので、重複領域RAの面積Sが小さくなる。これによって、修正ベクトル算出部166では、長軸半径“a”及び短軸半径“b”の大きさが調整された第1楕円C1Lと第2楕円C2Lから、移動後の監視対象撮像画像Fmの中心の座標 (x,y)を算出し、指示ベクトルrの長さ成分Dに応じた修正ベクトルr1を算出する。   As shown in FIGS. 17A and 17B, the overlapping area calculation unit 165 increases the major axis radii “a” of the first ellipse C1L and the second ellipse C2L as the length component D of the instruction vector r increases. Since the coefficient “k” is calculated so that the minor axis radius “b” is increased, the area S of the overlapping region RA is decreased. As a result, the correction vector calculation unit 166 uses the first ellipse C1L and the second ellipse C2L in which the major axis radius “a” and the minor axis radius “b” are adjusted to move the monitored captured image Fm after the movement. The coordinate (x, y) of the center is calculated, and a correction vector r1 corresponding to the length component D of the instruction vector r is calculated.

このようにして、本実施形態に係る床下点検システム1000では、修正ベクトル算出部166は、重複領域算出部165から係数“k”を入力すると、撮像方向の移動前の監視対象撮像画像内に収まる第1楕円C1Lの形状と、撮像方向の移動後の監視対象撮像画像内に収まる第2楕円C2Lの形状とを算出する。また、修正ベクトル算出部166は、第1楕円C1Lと、当該第1楕円C1Lに外接するように定められた第2楕円C2Lとに基づいて、指示ベクトルrの長さ成分を調整した修正ベクトルr2を算出する。よって、本実施形態に係る床下点検システム1000においても、上述した第2実施形態と同様の効果を奏することができる。つまり、ユーザは、指示ベクトルrを入力する際、例えば、指示ベクトルrの長さ成分Dを加減する等の操作を行うだけで、移動前の監視対象撮像画像Fと移動後の監視対象撮像画像Fmとが重複する重複領域RAの面積Sを調節して撮像方向を移動させることができる。   In this way, in the underfloor inspection system 1000 according to the present embodiment, when the correction vector calculation unit 166 inputs the coefficient “k” from the overlapping region calculation unit 165, the correction vector calculation unit 166 falls within the monitoring target captured image before moving in the imaging direction. The shape of the first ellipse C1L and the shape of the second ellipse C2L that fits in the monitoring target captured image after movement in the imaging direction are calculated. The correction vector calculation unit 166 also corrects the length vector of the instruction vector r based on the first ellipse C1L and the second ellipse C2L circumscribed by the first ellipse C1L. Is calculated. Therefore, the underfloor inspection system 1000 according to the present embodiment can achieve the same effects as those of the second embodiment described above. That is, when the user inputs the instruction vector r, for example, the user simply performs an operation such as adding or subtracting the length component D of the instruction vector r, and the monitoring target captured image F before the movement and the monitoring target captured image after the movement. The imaging direction can be moved by adjusting the area S of the overlapping region RA where Fm overlaps.

なお、重複領域算出部165は、指示ベクトルrの長さ成分Dの大きさに関わらず、一定の係数“k(例えば、0.8)”を予め記憶し、当該係数“k”を、修正ベクトル算出部166に出力してもよい。また、修正ベクトル算出部166では、一定の係数“k”に基づいて、長軸半径“a”及び短軸半径“b”を算出して、算出した長軸半径“a”及び短軸半径“b”の第1楕円C1Lと第2楕円C2Lから、移動後の監視対象撮像画像Fmの中心の座標(x,y)を算出してもよい。つまり、修正ベクトル算出部166は、一定の係数“k”に基づいて、一定の長軸半径“a”及び一定の短軸半径“b”の第1楕円C1Lと第2楕円C2Lを算出して、修正ベクトルr1を算出してもよい。   Note that the overlapping region calculation unit 165 stores a constant coefficient “k (for example, 0.8)” in advance regardless of the magnitude of the length component D of the instruction vector r, and corrects the coefficient “k”. You may output to the vector calculation part 166. FIG. Further, the correction vector calculation unit 166 calculates the major axis radius “a” and the minor axis radius “b” based on the constant coefficient “k”, and calculates the major axis radius “a” and the minor axis radius “b”. From the first ellipse C1L and the second ellipse C2L of b ″, the coordinates (x, y) of the center of the monitoring target captured image Fm after movement may be calculated. That is, the correction vector calculation unit 166 calculates the first ellipse C1L and the second ellipse C2L having the constant major axis radius “a” and the constant minor axis radius “b” based on the constant coefficient “k”. The correction vector r1 may be calculated.

(第3実施形態に係る変形例)
第3実施形態に係る変形例について、上述した実施形態との相違点に着目して説明する。上述した第3実施形態では、修正ベクトル算出部166が、重複領域算出部165によって算出された係数“k”に応じて、長さ成分を調整した修正ベクトルr1を算出するように構成されていたが、本実施形態では、移動ベクトル算出部168が、重複領域算出部165によって算出された係数“k”に応じて、長さ成分を調整した修正ベクトルr1を算出すると共に、当該修正ベクトルr1に基づいて、移動ベクトルr3を算出する。
(Modification according to the third embodiment)
A modified example according to the third embodiment will be described by focusing on differences from the above-described embodiment. In the third embodiment described above, the correction vector calculation unit 166 is configured to calculate the correction vector r1 in which the length component is adjusted in accordance with the coefficient “k” calculated by the overlapping region calculation unit 165. However, in the present embodiment, the movement vector calculation unit 168 calculates the correction vector r1 in which the length component is adjusted according to the coefficient “k” calculated by the overlapping region calculation unit 165, and sets the correction vector r1 to the correction vector r1. Based on this, the movement vector r3 is calculated.

具体的に、移動ベクトル算出部168は、重複領域算出部165から係数“k”を入力すると、(18)式に基づいて、第1楕円C1Lと第2楕円C2Lの長軸半径“a”及び短軸半径“b”を算出する。また、移動ベクトル算出部168は、算出した長軸半径“a”及び短軸半径“b”と、補正ベクトル算出部167から入力した補正ベクトルr2(x,y)とに基づいて、(11)乃至(14)式と、(18)式とから、移動ベクトルr3(x,y)を算出する。なお、このとき、移動ベクトル算出部168は、補正ベクトルr2(x,y)の値に応じて、下記(I)乃至(II)の条件に基づいて、移動ベクトルr3(x,y)を算出する。 Specifically, when the coefficient “k” is input from the overlapping region calculation unit 165, the movement vector calculation unit 168 receives the major axis radii “a” of the first ellipse C1L and the second ellipse C2L based on the equation (18) and The minor axis radius “b” is calculated. Further, the movement vector calculation unit 168 is based on the calculated major axis radius “a” and minor axis radius “b” and the correction vector r2 (x 2 , y 2 ) input from the correction vector calculation unit 167 ( The movement vector r3 (x, y) is calculated from the equations (11) to (14) and the equation (18). At this time, the movement vector calculation unit 168 moves the movement vector r3 (x, y) based on the following conditions (I) to (II) according to the value of the correction vector r2 (x 2 , y 2 ). Is calculated.

(I)x≠0、y≠0の時
例えば、移動ベクトル算出部168は、補正ベクトルr2(x,y)が何れも0(ゼロ)でない場合、(22)式に基づいて“x”の値を算出した後、(13)乃至(14)式に基づいて、“y”の値を算出する。

Figure 2009016956
(I) When x 2 ≠ 0 and y 2 ≠ 0 For example, when neither of the correction vectors r2 (x 2 , y 2 ) is 0 (zero), the movement vector calculation unit 168 is based on the equation (22). After calculating the value of “x”, the value of “y” is calculated based on the equations (13) to (14).
Figure 2009016956



(II)x=0、y≠0の時
また、移動ベクトル算出部168は、補正ベクトルr2(x,y)において、“x”が0(ゼロ)である場合、(23)式に基づいて、移動ベクトルr3(x,y)を算出する。

Figure 2009016956


(II) When x 2 = 0 and y 2 ≠ 0 In addition, the movement vector calculation unit 168 determines that (23) when “x 2 ” is 0 (zero) in the correction vector r2 (x 2 , y 2 ). ) To calculate the movement vector r3 (x, y).
Figure 2009016956



(III)x≠0、y=0の時
また、移動ベクトル算出部168は、補正ベクトルr2(x,y)において、“y”が0(ゼロ)である場合、(24)式に基づいて、移動ベクトルr3(x,y)を算出する。

Figure 2009016956


(III) When x 2 ≠ 0 and y 2 = 0 Also, the movement vector calculation unit 168 determines that (24) when “y 2 ” is 0 (zero) in the correction vector r2 (x 2 , y 2 ). ) To calculate the movement vector r3 (x, y).
Figure 2009016956



(IV)x=0、y=0の時
また、移動ベクトル算出部168は、補正ベクトルr2(x,y)において、“x”と“y”とがいずれも0(ゼロ)である場合、(21)式に基づいて、移動ベクトルr3(x,y)を算出する。つまり、補正ベクトルr2が0(ゼロ)であるため、移動ベクトルr3と修正ベクトルr1とは等しくなる。


(IV) When x 2 = 0 and y 2 = 0 In addition, the movement vector calculation unit 168 determines that both “x 2 ” and “y 2 ” are 0 in the correction vector r2 (x 2 , y 2 ). If zero), the movement vector r3 (x, y) is calculated based on the equation (21). That is, since the correction vector r2 is 0 (zero), the movement vector r3 and the correction vector r1 are equal.

このように、本実施形態に係る床下点検システム1000によれば、重複領域算出部165が、指示ベクトルrの長さ成分Dに応じて係数“k”を算出し、移動ベクトル算出部168が、算出された係数“k”に応じて、長さ成分を調整した移動ベクトルr3を算出する。よって、本実施形態に係る床下点検システム1000においても、上述した第3実施形態と同様の効果を奏することができる。   Thus, according to the underfloor inspection system 1000 according to the present embodiment, the overlapping area calculation unit 165 calculates the coefficient “k” according to the length component D of the instruction vector r, and the movement vector calculation unit 168 In accordance with the calculated coefficient “k”, a movement vector r3 with the length component adjusted is calculated. Therefore, the underfloor inspection system 1000 according to the present embodiment can achieve the same effects as those of the third embodiment described above.

なお、重複領域算出部165は、指示ベクトルrの長さ成分Dの大きさに関わらず、一定の係数“k(例えば、0.8)”を予め記憶し、当該係数“k”を、移動ベクトル算出部168に出力してもよい。また、移動ベクトル算出部168では、一定の係数“k”に基づいて、長軸半径“a”及び短軸半径“b”を算出して、算出した長軸半径“a”及び短軸半径“b”の第1楕円C1Lと第2楕円C2Lから、移動後の監視対象撮像画像Fmaの中心の座標(x,y)を算出してもよい。つまり、移動ベクトル算出部168は、一定の係数“k”に基づいて、一定の長軸半径“a”及び一定の短軸半径“b”の第1楕円C1Lと第2楕円C2Lを算出して、移動ベクトルr3を算出してもよい。   Note that the overlapping region calculation unit 165 stores a constant coefficient “k (for example, 0.8)” in advance regardless of the length component D of the instruction vector r, and moves the coefficient “k”. You may output to the vector calculation part 168. Further, the movement vector calculation unit 168 calculates the major axis radius “a” and the minor axis radius “b” based on the constant coefficient “k”, and calculates the major axis radius “a” and the minor axis radius “b”. From the first ellipse C1L and the second ellipse C2L of b ″, the coordinates (x, y) of the center of the monitoring target captured image Fma after movement may be calculated. That is, the movement vector calculation unit 168 calculates the first ellipse C1L and the second ellipse C2L having the constant major axis radius “a” and the constant minor axis radius “b” based on the constant coefficient “k”. The movement vector r3 may be calculated.

[第4実施形態]
本発明の第4実施形態に係る床下点検システム1000について、上述した実施形態との相違点に着目して説明する。本実施形態に係る床下点検システム1000では、カメラ制御部234が、第1実施形態に係る操作制御部16に備えられている各種機能を具備する。
[Fourth Embodiment]
An underfloor inspection system 1000 according to a fourth embodiment of the present invention will be described by focusing on differences from the above-described embodiment. In the underfloor inspection system 1000 according to the present embodiment, the camera control unit 234 includes various functions provided in the operation control unit 16 according to the first embodiment.

具体的に、操作端末10の入力部15は、指示ベクトルrが入力されると、監視対象撮像画像Fの中心を原点として、始点座標P1の座標値と終点座標P2の座標値とを含む指示ベクトル情報を、操作制御部16に出力する。また、入力部15は、第1乃至第3モードのいずれのモードを用いるかについて、ユーザから指示を受け付けて、当該モードを示すモード情報を操作制御部16に出力する。   Specifically, when the instruction vector r is input, the input unit 15 of the operation terminal 10 includes an instruction including the coordinate value of the start point coordinate P1 and the coordinate value of the end point coordinate P2 with the center of the monitoring target captured image F as the origin. Vector information is output to the operation control unit 16. Further, the input unit 15 receives an instruction from the user as to which of the first to third modes is used, and outputs mode information indicating the mode to the operation control unit 16.

操作制御部16は、入力部15から出力された指示ベクトル情報やモード情報を、通信部12を介して、移動ロボット20に送信する。   The operation control unit 16 transmits the instruction vector information and the mode information output from the input unit 15 to the mobile robot 20 via the communication unit 12.

(本発明の第4実施形態に係るカメラ制御部の構成)
本実施形態に係るカメラ制御部234は、画像取得部2341と、送受信部2342と、記憶部2343と、制御部2344と、重複領域算出部2345と、修正ベクトル算出部2346と、補正ベクトル算出部2347と、移動ベクトル算出部2348と、撮像方向指示部2349とを備える。
(Configuration of Camera Control Unit According to Fourth Embodiment of the Present Invention)
The camera control unit 234 according to the present embodiment includes an image acquisition unit 2341, a transmission / reception unit 2342, a storage unit 2343, a control unit 2344, an overlap region calculation unit 2345, a correction vector calculation unit 2346, and a correction vector calculation unit. 2347, a movement vector calculation unit 2348, and an imaging direction instruction unit 2349.

画像取得部2341は、カメラ231によって撮像された監視対象物画像の一部を含む監視対象撮像画像を取得する。また、取得した監視対象物画像は、送受信部2342に出力する。   The image acquisition unit 2341 acquires a monitoring target captured image including a part of the monitoring target object image captured by the camera 231. Further, the acquired monitoring object image is output to the transmission / reception unit 2342.

送受信部2342は、撮像画像取得部2341によって取得された監視対象撮像画像を通信部22に出力する。また、送受信部2342は、ユーザによって監視対象撮像画像上に入力された始点座標値と終点座標値とを含む指示ベクトル情報を、通信部22を介して、操作端末10から受け付ける。また、送受信部2342は、受信した指示ベクトル情報に含まれる始点座標P1と終点座標P2とに基づいて、始点座標P1から終点座標P2に向かう指示ベクトルrを取得する。また、送受信部2342は、指示ベクトル情報を制御部2344に出力する。本実施形態において、送受信部2342は、受付部とベクトル取得部とを構成する。   The transmission / reception unit 2342 outputs the monitoring target captured image acquired by the captured image acquisition unit 2341 to the communication unit 22. In addition, the transmission / reception unit 2342 receives instruction vector information including the start point coordinate value and the end point coordinate value input on the monitoring target captured image by the user from the operation terminal 10 via the communication unit 22. In addition, the transmission / reception unit 2342 acquires the instruction vector r from the start point coordinate P1 toward the end point coordinate P2 based on the start point coordinate P1 and the end point coordinate P2 included in the received instruction vector information. Further, the transmission / reception unit 2342 outputs the instruction vector information to the control unit 2344. In the present embodiment, the transmission / reception unit 2342 constitutes a reception unit and a vector acquisition unit.

記憶部2343は、第1実施形態に係る記憶部163と同様の構成である。よって、ここでは説明を省略する。   The storage unit 2343 has the same configuration as the storage unit 163 according to the first embodiment. Therefore, the description is omitted here.

制御部2344は、カメラ制御部234内の各種機能を制御する。また、制御部2344は、送受信部2342において指示ベクトル情報が入力されて、指示ベクトルrを取得すると、記憶部2343を参照し、第1乃至第3モードの何れのモードが「使用」であるか否かを判定する。つまり、制御部2344は、第1実施形態に係る制御部234と同様に、記憶部2343を参照した際、第1モードが「使用」である場合、指示ベクトル情報を、修正ベクトル算出部2346に出力し、第2モードが「使用」である場合、指示ベクトル情報を、修正ベクトル算出部2346と補正ベクトル算出部2347とに出力し、第3モードが「使用」である場合、指示ベクトル情報を、補正ベクトル算出部2347と移動ベクトル算出部2348とに出力する。   The control unit 2344 controls various functions in the camera control unit 234. In addition, when the instruction vector information is input to the transmission / reception unit 2342 and the instruction vector r is acquired, the control unit 2344 refers to the storage unit 2343 and determines which of the first to third modes is “use”. Determine whether or not. That is, the control unit 2344, when referring to the storage unit 2343, similarly to the control unit 234 according to the first embodiment, if the first mode is “use”, the instruction vector information is sent to the correction vector calculation unit 2346. When the second mode is “use”, the instruction vector information is output to the correction vector calculation unit 2346 and the correction vector calculation unit 2347. When the third mode is “use”, the instruction vector information is And output to the correction vector calculation unit 2347 and the movement vector calculation unit 2348.

また、本実施形態において、重複領域算出部2345と、修正ベクトル算出部2346と、補正ベクトル算出部2347と、移動ベクトル算出部2348と、撮像方向指示部2349との各種構成は、それぞれが、第1実施形態に係る重複領域算出部165と、修正ベクトル算出部166と、補正ベクトル算出部167と、移動ベクトル算出部168との構成と同様である。よって、ここでは説明を省略する。   In the present embodiment, each of the various configurations of the overlapping area calculation unit 2345, the correction vector calculation unit 2346, the correction vector calculation unit 2347, the movement vector calculation unit 2348, and the imaging direction instruction unit 2349 is The configuration is the same as that of the overlapping area calculation unit 165, the correction vector calculation unit 166, the correction vector calculation unit 167, and the movement vector calculation unit 168 according to the embodiment. Therefore, the description is omitted here.

撮像方向指示部2349は、パン用モータ232とチルト用モータ233と接続し、カメラ231の撮像方向を移動する。また、撮像方向指示部2349は、カメラ231の撮像方向を移動する際、移動前の監視対象撮像画像と移動後の監視対象撮像画像とが重複する重複領域を残すように撮像方向を移動する。本実施形態において、撮像方向指示部2349は、動作部を構成する。   The imaging direction instruction unit 2349 is connected to the pan motor 232 and the tilt motor 233 and moves the imaging direction of the camera 231. In addition, when the imaging direction of the camera 231 is moved, the imaging direction instruction unit 2349 moves the imaging direction so as to leave an overlapping region where the monitoring target captured image before the movement and the monitoring target captured image after the movement overlap. In the present embodiment, the imaging direction instruction unit 2349 constitutes an operation unit.

また、撮像方向指示部2349は、撮像方向指示情報を送信する際、修正ベクトルr1に従って撮像方向を移動する第1モードと、補正ベクトルr2に従って撮像方向を移動した後に修正ベクトルr1に従って撮像方向を移動する第2モードと、移動ベクトルr3に従って撮像方向を移動する第3モードとを切り替えて、各第1乃至第3モードに対応する撮像方向指示情報を移動ロボット20に送信する。なお、第1乃至第3モードの切替は、ユーザからの指示に応じて、記憶部2343に記憶される第1乃至第3モードの何れのモードが「使用」であるかに応じて切り替えられる。   In addition, when transmitting imaging direction instruction information, the imaging direction instruction unit 2349 moves the imaging direction according to the correction vector r1 after moving the imaging direction according to the first mode in which the imaging direction is moved according to the correction vector r1 and the correction vector r2. The second mode is switched to the third mode in which the imaging direction is moved according to the movement vector r3, and imaging direction instruction information corresponding to each of the first to third modes is transmitted to the mobile robot 20. Note that switching between the first to third modes is switched according to which of the first to third modes stored in the storage unit 2343 is “use” in response to an instruction from the user.

具体的に、撮像方向指示部2349は、記憶部2343を参照し、記憶部2343に記憶される第1モードが「使用」である場合、修正ベクトル算出部2346によって算出された修正ベクトルr1を入力する。また、撮像方向指示部2349は、修正ベクトルr1に基づいて、カメラの撮像方向を移動する際の角度を示すパン・チルト角度を算出する。また、撮像方向指示部2349は、算出したパン・チルト角度に基づいて、パン用モータ232とチルト用モータ233を制御し、カメラ231の撮像方向を移動する。   Specifically, the imaging direction instruction unit 2349 refers to the storage unit 2343 and inputs the correction vector r1 calculated by the correction vector calculation unit 2346 when the first mode stored in the storage unit 2343 is “use”. To do. In addition, the imaging direction instruction unit 2349 calculates a pan / tilt angle indicating an angle when the imaging direction of the camera is moved based on the correction vector r1. Further, the imaging direction instruction unit 2349 controls the pan motor 232 and the tilt motor 233 based on the calculated pan / tilt angle, and moves the imaging direction of the camera 231.

撮像方向指示部2349は、記憶部2343に記憶される第2モードが「使用」である場合、修正ベクトル算出部2346によって算出された修正ベクトルr1と、修正ベクトル算出部2346によって算出された補正ベクトルr2とを入力する。また、撮像方向指示部2349は、補正ベクトルr2に基づいて、カメラの撮像方向を移動する際の角度を示す第1パン・チルト角度を算出する。また、撮像方向指示部2349は、修正ベクトルr1に基づいて、カメラの撮像方向を移動する際の角度を示す第2パン・チルト角度を算出する。また、撮像方向指示部2349は、第1パン・チルト角度に基づいて、パン用モータ232とチルト用モータ233を制御して、カメラ231の撮像方向を移動する。この後、撮像方向指示部2349は、第2パン・チルト角度に基づいて、パン用モータ232とチルト用モータ233を制御して、カメラ231の撮像方向を移動する。   When the second mode stored in the storage unit 2343 is “use”, the imaging direction instruction unit 2349 includes the correction vector r1 calculated by the correction vector calculation unit 2346 and the correction vector calculated by the correction vector calculation unit 2346. Enter r2. Further, the imaging direction instruction unit 2349 calculates a first pan / tilt angle indicating an angle when moving in the imaging direction of the camera based on the correction vector r2. Further, the imaging direction instruction unit 2349 calculates a second pan / tilt angle indicating an angle when moving in the imaging direction of the camera based on the correction vector r1. The imaging direction instruction unit 2349 controls the pan motor 232 and the tilt motor 233 based on the first pan / tilt angle to move the imaging direction of the camera 231. Thereafter, the imaging direction instruction unit 2349 moves the imaging direction of the camera 231 by controlling the pan motor 232 and the tilt motor 233 based on the second pan / tilt angle.

撮像方向指示部2349は、記憶部2343に記憶される第3モードが「使用」である場合、修正ベクトル算出部2346によって算出された移動ベクトルr3を入力する。また、撮像方向指示部2349は、移動ベクトルr3に基づいて、カメラの撮像方向を移動する際の角度を示すパン・チルト角度を算出する。また、撮像方向指示部2349は、算出したパン・チルト角度に基づいて、パン用モータ232とチルト用モータ233を制御し、カメラ231の撮像方向を移動する。   When the third mode stored in the storage unit 2343 is “use”, the imaging direction instruction unit 2349 receives the movement vector r3 calculated by the correction vector calculation unit 2346. Further, the imaging direction instruction unit 2349 calculates a pan / tilt angle indicating an angle when moving in the imaging direction of the camera based on the movement vector r3. Further, the imaging direction instruction unit 2349 controls the pan motor 232 and the tilt motor 233 based on the calculated pan / tilt angle, and moves the imaging direction of the camera 231.

(第4実施形態に係る床下点検システムの作用・効果)
本実施形態に係る床下点検システム1000によれば、移動ロボット20のカメラ制御部234において、指示ベクトルrを取得し、当該指示ベクトルrに基づいて、修正ベクトル算出部2346が、修正ベクトルr1を算出する。また、補正ベクトル算出部2347が、補正ベクトルr2を算出する。また、移動ベクトル算出部2348が、移動ベクトルr3を算出する。また、撮像方向指示部2349が、第1乃至第3モードに応じて、修正ベクトルr1、補正ベクトルr2、移動ベクトルr3を用いて、カメラ231の撮像方向を移動する際の角度を示すパン・チルト角度を算出し、算出したパン・チルト角度に基づいて、パン用モータ232とチルト用モータ233を制御し、カメラ231の撮像方向を移動する。
(Operation and effect of the underfloor inspection system according to the fourth embodiment)
According to the underfloor inspection system 1000 according to the present embodiment, the camera control unit 234 of the mobile robot 20 acquires the instruction vector r, and the correction vector calculation unit 2346 calculates the correction vector r1 based on the instruction vector r. To do. Further, the correction vector calculation unit 2347 calculates the correction vector r2. Further, the movement vector calculation unit 2348 calculates a movement vector r3. Also, pan / tilt indicating an angle when the imaging direction instruction unit 2349 moves the imaging direction of the camera 231 using the correction vector r1, the correction vector r2, and the movement vector r3 according to the first to third modes. The angle is calculated, and the pan motor 232 and the tilt motor 233 are controlled based on the calculated pan / tilt angle to move the imaging direction of the camera 231.

つまり、本実施形態に係る床下点検システム1000では、第1実施形態に係る床下点検システム1000における操作制御部16の機能をカメラ制御部234で実行させることができる。よって、本実施形態に係る床下点検システム1000においても、第1実施形態と同様の効果を奏することができる。   That is, in the underfloor inspection system 1000 according to the present embodiment, the function of the operation control unit 16 in the underfloor inspection system 1000 according to the first embodiment can be executed by the camera control unit 234. Therefore, the underfloor inspection system 1000 according to the present embodiment can achieve the same effects as those of the first embodiment.

[第5実施形態]
本発明の第5実施形態について、上述した実施形態との相違点に着目して説明する。本実施形態に係る床下点検システム1000では、撮像方向指示部169の構成を除き、上述した第1実施形態に係る床下点検システム1000と同様である。よって、以下に、撮像方向指示部169の構成について説明する。
[Fifth Embodiment]
The fifth embodiment of the present invention will be described by paying attention to differences from the above-described embodiments. The underfloor inspection system 1000 according to the present embodiment is the same as the underfloor inspection system 1000 according to the first embodiment described above, except for the configuration of the imaging direction instruction unit 169. Therefore, the configuration of the imaging direction instruction unit 169 will be described below.

(本発明の第5実施形態に係る撮像方向指示部の構成)
本実施形態に係る撮像方向指示部169は、図12のステップS106、ステップS115、ステップS124において、修正ベクトルr1、補正ベクトルr2、移動ベクトルr3に基づいて、移動後の監視対象撮像画像Fmに撮像方向を移動する際、予め記憶する所定の移動量に達した場合、移動ロボット20に位置の移動を指示する。ここで、所定の移動量とは、パン・チルトの限界角度であってもよいし、カメラ231が、撮像方向を移動する際に、移動ロボット20の構造上死角となるパン・チルトの角度であってもよい。なお、本実施形態では、所定の移動量がパンの限界角度である場合を例に挙げて説明する。また、ここでは、現状のカメラ231の限界角度が角度Φであり、撮像方向指示部169が、カメラ231の撮像方向を角度ω(ω=Φ+α)だけ移動させる場合を例に挙げて説明する。
(Configuration of the imaging direction instruction unit according to the fifth embodiment of the present invention)
In step S106, step S115, and step S124 of FIG. 12, the imaging direction instruction unit 169 according to the present embodiment captures an image of the monitoring target captured image Fm after movement based on the correction vector r1, the correction vector r2, and the movement vector r3. When moving in the direction, if a predetermined movement amount stored in advance is reached, the mobile robot 20 is instructed to move the position. Here, the predetermined movement amount may be a pan / tilt limit angle, or a pan / tilt angle that is a blind spot in the structure of the mobile robot 20 when the camera 231 moves in the imaging direction. There may be. In the present embodiment, the case where the predetermined movement amount is the panning limit angle will be described as an example. Here, the case where the current camera 231 has a limit angle of angle Φ and the imaging direction instruction unit 169 moves the imaging direction of the camera 231 by an angle ω (ω = Φ + α) will be described as an example.

具体的に、本実施形態に係る撮像方向指示部169は、移動量がパンの限界角度Φに達した場合、ロボット制御部24に、移動ロボット20の方向をパンの限界角度Φまで旋回移動するように指示する。この指示を受けたロボット制御部24は、走行用モータ25を制御して、移動ロボット20の方向を限界角度Φまで旋回移動する。同時に、撮像方向指示部169は、移動ロボット20のカメラ制御部234に対して、カメラ231の撮像方向を、旋回移動した角度Φだけ戻すように指示する、つまり、撮像方向指示部169は、カメラ制御部234に対して、カメラ231の撮像方向を角度−Φだけ移動するように指示する。この指示を受けたカメラ制御部234は、パン用モータ232を制御し、カメラ231の撮像方向を角度−Φだけ移動する。   Specifically, when the movement amount reaches the panning limit angle Φ, the imaging direction instruction unit 169 according to the present embodiment turns the direction of the mobile robot 20 to the panning limit angle Φ to the robot control unit 24. To instruct. Receiving this instruction, the robot controller 24 controls the traveling motor 25 to turn the direction of the mobile robot 20 to the limit angle Φ. At the same time, the imaging direction instruction unit 169 instructs the camera control unit 234 of the mobile robot 20 to return the imaging direction of the camera 231 by the turning angle Φ. That is, the imaging direction instruction unit 169 The control unit 234 is instructed to move the imaging direction of the camera 231 by an angle −Φ. Upon receiving this instruction, the camera control unit 234 controls the pan motor 232 and moves the imaging direction of the camera 231 by an angle −Φ.

上記動作が完了すると、撮像方向指示部169は、カメラ制御部234に不足分の移動量(以下、不足角度α)だけ撮像方向を移動するように指示する。この指示を受けたカメラ制御部234は、パン用モータ232を制御し、カメラ231の撮像方向を不足角度αだけ移動する。   When the above operation is completed, the imaging direction instruction unit 169 instructs the camera control unit 234 to move the imaging direction by an insufficient amount of movement (hereinafter, insufficient angle α). Upon receiving this instruction, the camera control unit 234 controls the pan motor 232 and moves the imaging direction of the camera 231 by the insufficient angle α.

(第5実施形態に係る床下点検システム1000の動作)
上記の構成の床下点検システム1000の動作について、図20乃至22を参照して説明する。なお、ここでは、カメラ231の撮像方向を移動する際、パンの移動量が限界角度に達した場合を例に挙げて説明する。
(Operation of the underfloor inspection system 1000 according to the fifth embodiment)
The operation of the underfloor inspection system 1000 having the above configuration will be described with reference to FIGS. Here, a case where the amount of pan movement reaches the limit angle when moving in the imaging direction of the camera 231 will be described as an example.

ステップS201において、床下点検システム1000では、撮像方向指示部169が、修正ベクトルr1、補正ベクトルr2、移動ベクトルr3に基づいて算出したパン・チルト角度を含む撮像方向指示情報を、カメラ制御部234に送信する。また、カメラ制御部234は、受信した撮像方向指示情報に含まれるパン・チルト角度に基づいて、パン用モータ232を制御し、カメラ231の撮像方向を移動する。例えば、図21(a)乃至(b)に示すように、移動ロボット20では、カメラ231の撮像方向が角度Φ分だけ移動される。   In step S201, in the underfloor inspection system 1000, the imaging direction instruction unit 169 provides the camera control unit 234 with imaging direction instruction information including a pan / tilt angle calculated based on the correction vector r1, the correction vector r2, and the movement vector r3. Send. Further, the camera control unit 234 controls the pan motor 232 based on the pan / tilt angle included in the received imaging direction instruction information, and moves the imaging direction of the camera 231. For example, as shown in FIGS. 21A to 21B, in the mobile robot 20, the imaging direction of the camera 231 is moved by the angle Φ.

ステップS202において、撮像方向指示部169は、パンの移動量が限界角度以上であるか否かを判定する。   In step S202, the imaging direction instruction unit 169 determines whether the pan movement amount is equal to or greater than the limit angle.

ステップS203において、撮像方向指示部169は、パンの移動量が限界角度以上でないと判定した場合、引き続きパン用モータ232を制御し、カメラ231の撮像方向を移動する。   In step S203, when the imaging direction instruction unit 169 determines that the amount of pan movement is not greater than or equal to the limit angle, the imaging direction instruction unit 169 continues to control the pan motor 232 to move the imaging direction of the camera 231.

ステップS204において、撮像方向指示部169は、パンの移動量が限界角度(例えば、角度Φ)以上であると判定した場合、現在のパンの移動量(角度Φ)を記憶すると共に、不足している不足角度αを算出する。   In step S204, when the imaging direction instruction unit 169 determines that the pan movement amount is equal to or larger than the limit angle (for example, the angle Φ), the current pan movement amount (angle Φ) is stored and insufficient. The deficient angle α is calculated.

ステップS205において、撮像方向指示部169は、ロボット制御部24に対して、移動ロボット20の方向を角度Φまで旋回移動するように指示する。この指示を受けたロボット制御部24は、走行用モータ25を制御して、図22(a)に示すように、移動ロボット20を角度Φまで旋回移動させる。同時に、撮像方向指示部169は、旋回移動した角度Φだけカメラ231の撮像方向を戻すように、角度−Φを示すパン角度を含む撮像方向指示情報をカメラ制御部234に送信する。また、カメラ制御部234は、受信した撮像方向指示情報に基づいて、パン用モータ232を制御して、カメラ231の撮像方向を角度−Φのパン角度分だけ移動する。つまり、図22(a)に示すように、移動ロボット20は、角度Φまで旋回移動するが、カメラ231の撮像方向(絶対的な方位)は移動しないように制御する。   In step S205, the imaging direction instruction unit 169 instructs the robot control unit 24 to turn the direction of the mobile robot 20 to the angle Φ. Receiving this instruction, the robot control unit 24 controls the traveling motor 25 to turn the mobile robot 20 to the angle Φ as shown in FIG. At the same time, the imaging direction instruction unit 169 transmits imaging direction instruction information including a pan angle indicating the angle −Φ to the camera control unit 234 so as to return the imaging direction of the camera 231 by the angle Φ that has been turned. Further, the camera control unit 234 controls the pan motor 232 based on the received image capturing direction instruction information, and moves the image capturing direction of the camera 231 by the pan angle of angle −Φ. That is, as shown in FIG. 22A, the mobile robot 20 controls to turn to the angle Φ, but does not move the imaging direction (absolute direction) of the camera 231.

ステップS206において、撮像方向指示部169は、パンの不足角度αを示すパン角度を含む撮像方向指示情報をカメラ制御部234に送信する。また、カメラ制御部234は、撮像方向指示情報を受信すると、図22(b)に示すように、当該撮像方向指示情報に含まれる不足角度αを示すパン角度分だけ、カメラ231の撮像方向を移動する。   In step S <b> 206, the imaging direction instruction unit 169 transmits imaging direction instruction information including a pan angle indicating the pan insufficient angle α to the camera control unit 234. When the camera control unit 234 receives the imaging direction instruction information, as shown in FIG. 22B, the camera control unit 234 changes the imaging direction of the camera 231 by the pan angle indicating the insufficient angle α included in the imaging direction instruction information. Moving.

このようにして、床下点検システム1000では、撮像方向指示部169が、カメラ231の撮像方向を角度ω(ω=Φ+α)だけ移動させる。なお、上述した例では、撮像方向指示部169は、パンの移動量が限界角度(例えば、角度Φ)以上であると判定した場合、ロボット制御部24に対して、移動ロボット20を限界角度Φだけ旋回移動するように指示していたが、少なくとも不足角度α以上の角度だけ旋回移動するように指示すればよい。   In this way, in the underfloor inspection system 1000, the imaging direction instruction unit 169 moves the imaging direction of the camera 231 by the angle ω (ω = Φ + α). In the above-described example, when the imaging direction instruction unit 169 determines that the pan movement amount is equal to or greater than the limit angle (for example, the angle Φ), the imaging direction instruction unit 169 moves the mobile robot 20 to the robot control unit 24 with the limit angle Φ. However, it is only necessary to instruct to turn at least an angle greater than the insufficient angle α.

(第5実施形態に係る床下点検システムの作用・効果)
本実施形態に係る床下点検システム1000によれば、撮像方向指示部169は、移動量(例えば、パンの移動量)が所定の移動量を上回った場合、ロボット制御部24に対して、移動ロボット20を所定の移動量まで旋回移動するように指示し、同時に、カメラ制御部234に対して、カメラ231の撮像方向を旋回移動した分だけに戻すように指示する。また、撮像方向指示部169は、移動ロボット20の旋回移動が完了すると、不足している移動量だけ、カメラ231の撮像方向を引き続き移動する。よって、かかる床下点検システム1000では、例えば、カメラ231の撮像方向の移動量が所定の移動量(例えば、限界角度)に達した場合であっても、移動ロボットを旋回移動させて、引き続き撮像方向を移動させることができる。よって、かかる床下点検システム1000では、修正ベクトルr1、補正ベクトルr2、移動ベクトルr3に基づいて算出した移動量(角度)に対して、カメラ231の撮像方向をより確実に移動させることができる。
(Operation and effect of the underfloor inspection system according to the fifth embodiment)
According to the underfloor inspection system 1000 according to the present embodiment, the imaging direction instruction unit 169 instructs the mobile robot to move the robot control unit 24 when the movement amount (for example, the movement amount of bread) exceeds a predetermined movement amount. 20 is instructed to turn to a predetermined amount of movement, and at the same time, the camera control unit 234 is instructed to return the imaging direction of the camera 231 to the amount of the turn. In addition, when the turning movement of the mobile robot 20 is completed, the imaging direction instruction unit 169 continues to move in the imaging direction of the camera 231 by an insufficient amount of movement. Therefore, in the underfloor inspection system 1000, for example, even when the movement amount of the camera 231 in the imaging direction reaches a predetermined movement amount (for example, a limit angle), the mobile robot is swung to continue the imaging direction. Can be moved. Therefore, in the underfloor inspection system 1000, the imaging direction of the camera 231 can be moved more reliably with respect to the movement amount (angle) calculated based on the correction vector r1, the correction vector r2, and the movement vector r3.

(第5実施形態に係る変形例)
第5実施形態に係る変形例について、上述した実施形態との相違点に着目して説明する。上述した実施形態では、撮像方向指示部169は、カメラ231の撮像方向が限界角度Φに達してから、ロボット制御部24に対して、移動ロボット20の旋回移動を行うように指示していたが、本実施形態に係る撮像方向指示部169は、撮像方向を移動するパン・チルト角度ωを算出した際、当該角度ωが予め記憶する所定の移動量に達すると事前に認識可能である場合、所定の移動量に達することを考慮して、カメラ制御部234に対するカメラ231の撮像方向の移動と、ロボット制御部24に対する移動ロボット20の旋回移動とを指示する。
(Modification according to the fifth embodiment)
A modified example according to the fifth embodiment will be described by focusing on differences from the above-described embodiment. In the above-described embodiment, the imaging direction instruction unit 169 instructs the robot control unit 24 to turn the mobile robot 20 after the imaging direction of the camera 231 reaches the limit angle Φ. When the imaging direction instruction unit 169 according to the present embodiment calculates the pan / tilt angle ω that moves in the imaging direction, when the angle ω reaches a predetermined movement amount stored in advance, it can be recognized in advance. In consideration of reaching a predetermined movement amount, the camera controller 234 is instructed to move in the imaging direction of the camera 231 and to turn the mobile robot 20 relative to the robot controller 24.

具体的に、撮像方向指示部169は、パン・チルト角度ωを算出した際に、算出したパン・チルト角度ωが限界角度Φ以上であるか否かを判定する。また、撮像方向指示部169は、算出したパン・チルト角度ωが限界角度Φ以上であると判定した場合、不足角度αよりも大きく、限界角度Φよりも小さいパン角度β1を算出する。   Specifically, when calculating the pan / tilt angle ω, the imaging direction instruction unit 169 determines whether or not the calculated pan / tilt angle ω is greater than or equal to the limit angle Φ. In addition, when it is determined that the calculated pan / tilt angle ω is equal to or larger than the limit angle Φ, the imaging direction instruction unit 169 calculates a pan angle β1 that is larger than the insufficient angle α and smaller than the limit angle Φ.

そして、撮像方向指示部169は、ロボット制御部24に対して、移動ロボット20の方向を角度β1まで旋回移動するように指示する。この指示を受けたロボット制御部24は、走行用モータ25を制御して、移動ロボット20を角度β1まで旋回移動させる。同時に、撮像方向指示部169は、旋回移動した角度β1分だけカメラ231の撮像方向を戻すように、角度−β1を示すパン角度を含む撮像方向指示情報をカメラ制御部234に送信する。また、カメラ制御部234は、受信した撮像方向指示情報に基づいて、パン用モータ232を制御して、カメラ231の撮像方向を、移動ロボット20が旋回移動した角度−β1のパン角度分だけ移動する。   Then, the imaging direction instruction unit 169 instructs the robot control unit 24 to turn the direction of the mobile robot 20 to the angle β1. Receiving this instruction, the robot controller 24 controls the traveling motor 25 to turn the mobile robot 20 to the angle β1. At the same time, the imaging direction instruction unit 169 transmits imaging direction instruction information including a pan angle indicating the angle −β1 to the camera control unit 234 so as to return the imaging direction of the camera 231 by the angle β1 that has been turned. Further, the camera control unit 234 controls the pan motor 232 based on the received imaging direction instruction information, and moves the imaging direction of the camera 231 by the pan angle of the angle −β1 that the mobile robot 20 turns. To do.

この後、撮像方向指示部169は、角度ωまでの残りのパン角度β2(β2=ω−β1)だけ撮像方向を移動するように、パン角度β2を含む撮像方向指示情報を、カメラ制御部234に送信する。また、カメラ制御部234は、受信した撮像方向指示情報に含まれる角度β2を示すパン角度分だけ、カメラ231の撮像方向を移動する。   Thereafter, the imaging direction instruction unit 169 transmits the imaging direction instruction information including the pan angle β2 so as to move the imaging direction by the remaining pan angle β2 (β2 = ω−β1) up to the angle ω. Send to. In addition, the camera control unit 234 moves the imaging direction of the camera 231 by the pan angle indicating the angle β2 included in the received imaging direction instruction information.

このように、本実施形態に係る撮像方向指示部169においても、上述した第5実施形態と同様の効果を奏することができる。   As described above, the imaging direction instruction unit 169 according to the present embodiment can achieve the same effects as those of the fifth embodiment described above.

(その他の実施形態)
上述したように、本発明の一実施形態を通じて本発明の内容を開示したが、この開示の一部をなす論述及び図面は、本発明を限定するものであると理解すべきではない。この開示から当業者には様々な代替実施の形態が明らかとなろう。
(Other embodiments)
As described above, the content of the present invention has been disclosed through one embodiment of the present invention. However, it should not be understood that the description and drawings constituting a part of this disclosure limit the present invention. From this disclosure, various alternative embodiments will be apparent to those skilled in the art.

例えば、上述した実施形態において、補正ベクトル算出部2347は、指示ベクトルr上の第1直線と、第1直線と直交する第2直線との交点P3の座標(x,y)を補正ベクトルr2の終点として算出するように構成されていたが、指示ベクトルrの始点P1や終点P2等を補正ベクトルr2の終点として算出するように構成されていてもよい。 For example, in the above-described embodiment, the correction vector calculation unit 2347 calculates the coordinates (x 2 , y 2 ) of the intersection point P3 between the first straight line on the instruction vector r and the second straight line orthogonal to the first straight line. Although it is configured to calculate as the end point of r2, it may be configured to calculate the start point P1, end point P2, etc. of the instruction vector r as the end point of the correction vector r2.

また、上述した実施形態において、操作端末10の記憶部13は、修正ベクトルr1と補正ベクトルr2と移動ベクトルr3を記憶するように構成されていてもよい。例えば、これらのベクトルr1乃至r3は、撮像軌跡の記録となる。そして、前回点検時の撮像軌跡として、記憶しておいたベクトルr1乃至r3を用いて、移動ロボット20を、前回と同じ位置に配置し、記憶しておいたベクトルr1乃至r3を用いて監視対象物を撮像すれば、前回とほぼ同様のアングルで監視対象物画像含を含む監視対象撮像画像を取得することができる。つまり、前回と次回とにおいて撮像した監視対象物画像を比較する際に、点検内容(例えば、クラックや水漏れ)の変化の比較作業等を容易に実施することができる。   In the above-described embodiment, the storage unit 13 of the operation terminal 10 may be configured to store the correction vector r1, the correction vector r2, and the movement vector r3. For example, these vectors r1 to r3 are a record of the imaging trajectory. Then, using the stored vectors r1 to r3 as the imaging trajectory at the previous inspection, the mobile robot 20 is arranged at the same position as the previous time, and the monitored objects are stored using the stored vectors r1 to r3. If an object is imaged, it is possible to obtain a monitoring target captured image including the monitoring target object including the same angle as the previous time. That is, when comparing the monitored object images captured in the previous time and the next time, it is possible to easily perform a comparison operation of changes in inspection contents (for example, cracks and water leakage).

また、上述した実施形態では、床下点検システム1000を一例に挙げて説明したが、これに限定されるものではない。例えば、所定の場所(ビル内や市街地)を監視する監視カメラを備える監視システムなどに適用してもよい。つまり、本発明は、特定の監視対象物を撮像するカメラ制御を実行する様々なシステムにおいて適用可能である。   Moreover, although embodiment mentioned above demonstrated and demonstrated the underfloor inspection system 1000 as an example, it is not limited to this. For example, the present invention may be applied to a monitoring system including a monitoring camera that monitors a predetermined place (inside a building or an urban area). That is, the present invention can be applied to various systems that execute camera control for imaging a specific monitoring object.

また、各実施形態の構成及び各変更例の構成もそれぞれ組み合わせることが可能である。また、各実施形態及び各変更例の作用及び効果は、本発明から生じる最も好適な作用及び効果を列挙したに過ぎず、本発明による作用及び効果は、各実施形態及び各変更例に記載されたものに限定されるものではない。このように、本発明は、ここでは記載していない様々な実施の形態などを含むことは勿論である。したがって、本発明の技術的範囲は、上述の説明から妥当な特許請求の範囲に係る発明特定事項によってのみ定められるものである。   In addition, the configuration of each embodiment and the configuration of each modified example can be combined. In addition, the operation and effect of each embodiment and each modification are merely a list of the most preferable operations and effects resulting from the present invention, and the operation and effect according to the present invention are described in each embodiment and each modification. It is not limited to the ones. As described above, the present invention naturally includes various embodiments that are not described herein. Therefore, the technical scope of the present invention is defined only by the invention specifying matters according to the scope of claims reasonable from the above description.

本発明の第1実施形態に係る床下点検システムのイメージを示すイメージ図である。It is an image figure which shows the image of the underfloor inspection system which concerns on 1st Embodiment of this invention. 第1実施形態に係る床下点検システムによって点検する床下環境の一例を示す図である。It is a figure which shows an example of the underfloor environment inspected by the underfloor inspection system which concerns on 1st Embodiment. 本発明の第1実施形態に係る床下点検システムのブロック構成図である。It is a block block diagram of the underfloor inspection system which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る操作端末に指示ベクトルが入力される際の画像のイメージである。It is an image of an image when an instruction vector is input to the operation terminal according to the first embodiment of the present invention. 本発明の第1実施形態に係る操作端末の操作制御部のブロック構成図である。It is a block block diagram of the operation control part of the operating terminal which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係るカメラ制御部の記憶部に記憶されるモード情報を示す図である。It is a figure which shows the mode information memorize | stored in the memory | storage part of the camera control part which concerns on 1st Embodiment of this invention. 本発明の第1実施形態において、移動前の監視対象撮像画像Fと、移動後の監視対象撮像画像Fmと、重複領域と、指示ベクトルと、修正ベクトルとを示すイメージ図である。In 1st Embodiment of this invention, it is an image figure which shows the monitoring target captured image F before a movement, the monitoring target captured image Fm after a movement, an overlapping area | region, an instruction | indication vector, and a correction vector. 本発明の第1実施形態において、指示ベクトルと、補正ベクトルとを示すイメージ図である。It is an image figure which shows an instruction | indication vector and a correction vector in 1st Embodiment of this invention. 本発明の第1実施形態において、移動前の監視対象撮像画像Fと、移動後の監視対象撮像画像Fmと、重複領域と、補正ベクトルと、修正ベクトルと、移動ベクトルとを示すイメージ図である。In 1st Embodiment of this invention, it is an image figure which shows the monitoring target captured image F before a movement, the monitoring target captured image Fm after a movement, an overlap area | region, a correction vector, a correction vector, and a movement vector. 本発明の第1実施形態において、補正ベクトルと、修正ベクトルと、移動ベクトルとを示すイメージ図である。It is an image figure which shows a correction vector, a correction vector, and a movement vector in 1st Embodiment of this invention. 本発明の第1実施形態に係る操作端末の動作を示すフローチャート図である。It is a flowchart figure which shows operation | movement of the operating terminal which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る床下点検システムにおいてカメラの撮像方向を制御する際の動作を示すフローチャート図である。It is a flowchart figure which shows the operation | movement at the time of controlling the imaging direction of a camera in the underfloor inspection system which concerns on 1st Embodiment of this invention. 本発明の第1実施形態において、補正ベクトルと、修正ベクトルとを示すイメージ図である。It is an image figure which shows a correction vector and a correction vector in 1st Embodiment of this invention. 本発明の第1実施形態において、移動前の監視対象撮像画像と移動後の監視対象撮像画像Fmとを示す画像のイメージである。In 1st Embodiment of this invention, it is an image of the image which shows the monitoring object captured image before a movement, and the monitoring object captured image Fm after a movement. 本発明の第1実施形態において、移動前の監視対象撮像画像Fと、移動中の監視対象撮像画像F´と、移動後の監視対象撮像画像Fmaとを示す画像のイメージである。In 1st Embodiment of this invention, it is an image of the image which shows the monitoring object picked-up image F before a movement, the monitoring target picked-up image F 'in movement, and the monitoring target picked-up image Fma after a movement. (a)本発明の第2実施形態において、長さ成分が長い指示ベクトルrLと重複領域と修正ベクトルとを示す図である。(b)本発明の第2実施形態において、長さ成分が短い指示ベクトルrSと重複領域と修正ベクトルとを示す図である。(A) In 2nd Embodiment of this invention, it is a figure which shows instruction | indication vector rL with a long length component, an overlap area | region, and a correction vector. (B) In 2nd Embodiment of this invention, it is a figure which shows instruction | indication vector rS with a short length component, an overlap area | region, and a correction vector. (a)本発明の第3実施形態において、長さ成分が長い指示ベクトルrLと重複領域と修正ベクトルとを示す図である。(b)本発明の第3実施形態において、長さ成分が短い指示ベクトルrSと重複領域と修正ベクトルとを示す図である。(A) In 3rd Embodiment of this invention, it is a figure which shows instruction | indication vector rL with a long length component, an overlapping area | region, and a correction vector. (B) In 3rd Embodiment of this invention, it is a figure which shows instruction | indication vector rS with a short length component, an overlap area | region, and a correction vector. 本発明の第3実施形態の変形例において、補正ベクトルと、修正ベクトルと、移動ベクトルとを示すイメージ図である。It is an image figure which shows a correction vector, a correction vector, and a movement vector in the modification of 3rd Embodiment of this invention. 本発明の第4実施形態に係るカメラ制御部の構成を示すブロック構成図である。It is a block block diagram which shows the structure of the camera control part which concerns on 4th Embodiment of this invention. 本発明の第5実施形態に係る床下点検システムの動作を示すフローチャート図である。It is a flowchart figure which shows operation | movement of the underfloor inspection system which concerns on 5th Embodiment of this invention. (a)本発明の第5実施形態に係る移動ロボットの撮像方向を示すイメージ図である。(b)本発明の第5実施形態に係る移動ロボットの撮像方向の移動を示すイメージ図である。(A) It is an image figure which shows the imaging direction of the mobile robot which concerns on 5th Embodiment of this invention. (B) It is an image figure which shows the movement of the imaging direction of the mobile robot which concerns on 5th Embodiment of this invention. (a)本発明の第5実施形態に係る移動ロボットの撮像方向の移動を示すイメージ図である。(b)本発明の第5実施形態に係る移動ロボットの撮像方向の移動を示すイメージ図である。(A) It is an image figure which shows the movement of the imaging direction of the mobile robot which concerns on 5th Embodiment of this invention. (B) It is an image figure which shows the movement of the imaging direction of the mobile robot which concerns on 5th Embodiment of this invention.

符号の説明Explanation of symbols

1000…床下点検システム、10…操作端末、12…通信部、13…記憶部、14…表示部、15…入力部、16…操作制御部、20…移動ロボット、22…通信部、23…カメラユニット、24…ロボット制御部、25…走行用モータ、26…種センサ、162…送受信部、163…記憶部、164…制御部、165…重複領域算出部、166…修正ベクトル算出部、167…補正ベクトル算出部、168…移動ベクトル算出部、169…撮像方向指示部、231…カメラ、232…パン用モータ、233…チルト用モータ、234…カメラ制御部、1000…床下点検システム、2341…画像取得部、2342…送受信部、2343…記憶部、2344…制御部、2345…重複領域算出部、2346…修正ベクトル算出部、2347…補正ベクトル算出部、2348…移動ベクトル算出部、2349…撮像方向指示部、C1L…第1楕円、C2L…第2楕円、F…監視対象撮像画像、Fm…監視対象撮像画像、Fma…監視対象撮像画像、K…カーソル、P1…始点座標、P2…始点座標、RA…重複領域、S11乃至S15…ステップ、S101乃至S124…ステップ、S201乃至S205…ステップ、r…指示ベクトル、r1…修正ベクトル、r2…補正ベクトル、r3…移動ベクトル、 1000: Underfloor inspection system, 10: Operation terminal, 12: Communication unit, 13 ... Storage unit, 14 ... Display unit, 15 ... Input unit, 16 ... Operation control unit, 20 ... Mobile robot, 22 ... Communication unit, 23 ... Camera Unit: 24 ... Robot control unit, 25 ... Running motor, 26 ... Species sensor, 162 ... Transmission / reception unit, 163 ... Storage unit, 164 ... Control unit, 165 ... Overlapping area calculation unit, 166 ... Modification vector calculation unit, 167 ... Correction vector calculation unit, 168 ... movement vector calculation unit, 169 ... imaging direction instruction unit, 231 ... camera, 232 ... pan motor, 233 ... tilt motor, 234 ... camera control unit, 1000 ... underfloor inspection system, 2341 ... image Acquisition unit, 2342 ... transmission / reception unit, 2343 ... storage unit, 2344 ... control unit, 2345 ... overlapping region calculation unit, 2346 ... correction vector calculation unit, 234 ... correction vector calculation unit, 2348 ... movement vector calculation unit, 2349 ... imaging direction instruction unit, C1L ... first ellipse, C2L ... second ellipse, F ... monitoring target captured image, Fm ... monitoring target captured image, Fma ... monitoring target Captured image, K ... cursor, P1 ... start point coordinate, P2 ... start point coordinate, RA ... overlapping area, S11 to S15 ... step, S101 to S124 ... step, S201 to S205 ... step, r ... instruction vector, r1 ... correction vector, r2 ... correction vector, r3 ... movement vector,

Claims (9)

カメラの撮像方向を制御するカメラ制御システムであって、
前記カメラによって撮像され、監視対象物画像の一部を含む監視対象撮像画像を取得する画像取得部と、
前記画像取得部によって取得された前記監視対象撮像画像を表示する表示部と、
前記監視対象撮像画像上に入力された始点座標の値と終点座標の値とを受け付ける受付部と、
前記受付部によって受け付けられた前記始点座標の値と前記終点座標の値とに基づいて、前記始点座標の値から前記終点座標の値に向かう指示ベクトルを取得するベクトル取得部と、
前記ベクトル取得部によって取得された前記指示ベクトルの方向成分に基づいて、前記撮像方向を移動する動作部とを備える
ことを特徴とするカメラ制御システム。
A camera control system for controlling the imaging direction of a camera,
An image acquisition unit that acquires a monitoring target captured image that is captured by the camera and includes a part of the monitoring target image;
A display unit for displaying the monitoring target captured image acquired by the image acquisition unit;
A reception unit that receives a value of a start point coordinate and a value of an end point coordinate input on the monitoring target captured image;
A vector acquisition unit that acquires an instruction vector from the value of the start point coordinate toward the value of the end point coordinate based on the value of the start point coordinate and the value of the end point coordinate received by the reception unit;
A camera control system comprising: an operation unit that moves the imaging direction based on a direction component of the instruction vector acquired by the vector acquisition unit.
前記動作部は、前記撮像方向を移動する際、移動前の前記監視対象撮像画像と移動後の監視対象撮像画像とが重複する重複領域を残すように前記撮像方向を移動する
ことを特徴とする請求項1に記載のカメラ制御システム。
The operation unit moves the imaging direction so as to leave an overlapping region where the monitoring target captured image before the movement and the monitored target captured image after the movement overlap when moving in the imaging direction. The camera control system according to claim 1.
前記指示ベクトルの長さ成分を調整した修正ベクトルを算出する修正ベクトル算出部と、
前記監視対象撮像画像の中心から、前記指示ベクトル上の点に向かう補正ベクトルを算出する補正ベクトル算出部とを更に備え、
前記動作部は、前記補正ベクトルと前記修正ベクトルとを加算した移動ベクトルに基づいて、前記撮像方向を移動する
ことを特徴とする請求項1又は2に記載のカメラ制御システム。
A correction vector calculation unit for calculating a correction vector obtained by adjusting the length component of the instruction vector;
A correction vector calculation unit that calculates a correction vector from the center of the monitoring target captured image toward a point on the instruction vector;
The camera control system according to claim 1, wherein the operation unit moves the imaging direction based on a movement vector obtained by adding the correction vector and the correction vector.
前記指示ベクトルの長さ成分を調整した修正ベクトルを算出する修正ベクトル算出部と、
前記監視対象撮像画像の中心から、前記指示ベクトル上の点に向かう補正ベクトルを算出する補正ベクトル算出部とを更に備え、
前記動作部は、前記補正ベクトルに従って前記撮像方向を移動した後、前記修正ベクトルに従って前記撮像方向を移動する
ことを特徴とする請求項1又は2に記載のカメラ制御システム。
A correction vector calculation unit for calculating a correction vector obtained by adjusting the length component of the instruction vector;
A correction vector calculation unit that calculates a correction vector from the center of the monitoring target captured image toward a point on the instruction vector;
The camera control system according to claim 1, wherein the operation unit moves the imaging direction according to the correction vector after moving the imaging direction according to the correction vector.
前記指示ベクトルの方向成分と、一定である前記重複領域の面積とに基づいて、前記指示ベクトルの長さ成分を調整した修正ベクトルを算出する修正ベクトル算出部とを更に備え、
前記動作部は、算出された前記修正ベクトルに基づいて、前記撮像方向を移動する
ことを特徴とする請求項2に記載のカメラ制御システム。
A correction vector calculation unit that calculates a correction vector obtained by adjusting a length component of the instruction vector based on a direction component of the instruction vector and a constant area of the overlapping region;
The camera control system according to claim 2, wherein the operation unit moves the imaging direction based on the calculated correction vector.
前記撮像方向の移動前の前記監視対象撮像画像内に収まる第1楕円の形状と、前記撮像方向の移動後の監視対象撮像画像内に収まる第2楕円の形状を算出すると共に、前記第1楕円と前記第1楕円に外接するように定められた前記第2楕円とに基づいて、前記指示ベクトルの長さ成分を調整した修正ベクトルを算出する修正ベクトル算出部を更に備え、
前記動作部は、算出された前記修正ベクトルに基づいて、前記撮像方向を移動する
ことを特徴とする請求項1又は2に記載のカメラ制御システム。
The shape of the first ellipse that fits in the monitored target captured image before movement in the imaging direction and the shape of the second ellipse that fits in the monitored target captured image after movement in the imaging direction are calculated, and the first ellipse And a correction vector calculation unit for calculating a correction vector in which the length component of the instruction vector is adjusted based on the second ellipse determined to circumscribe the first ellipse,
The camera control system according to claim 1, wherein the operation unit moves the imaging direction based on the calculated correction vector.
前記動作部は、前記カメラを搭載するカメラ制御ロボットに備えられ、車輪又はクローラを駆動する駆動部である
ことを特徴とする請求項1乃至6のいずれか1項に記載のカメラ制御システム。
The camera control system according to claim 1, wherein the operation unit is a drive unit that is provided in a camera control robot on which the camera is mounted and that drives a wheel or a crawler.
カメラの撮像方向を制御するカメラ制御ロボットと通信し、前記カメラの撮像方向の移動を指示するカメラ制御装置であって、
前記カメラによって撮像され、監視対象物画像の一部を含む監視対象撮像画像を取得する画像取得部と、
前記画像取得部によって取得された前記監視対象撮像画像を表示する表示部と、
前記監視対象撮像画像上に入力された始点座標の値と終点座標の値とを受け付ける受付部と、
前記受付部によって受け付けられた前記始点座標の値と前記終点座標の値とに基づいて、前記始点座標の値から前記終点座標の値に向かう指示ベクトルを取得するベクトル取得部と、
前記ベクトル取得部によって取得された前記指示ベクトルの方向成分に基づいて、前記撮像方向の移動を指示する指示情報を前記カメラ制御ロボットに送信する指示部とを備える
ことを特徴とするカメラ制御装置。
A camera control apparatus that communicates with a camera control robot that controls an imaging direction of a camera and instructs movement of the imaging direction of the camera,
An image acquisition unit that acquires a monitoring target captured image that is captured by the camera and includes a part of the monitoring target image;
A display unit for displaying the monitoring target captured image acquired by the image acquisition unit;
A reception unit that receives a value of a start point coordinate and a value of an end point coordinate input on the monitoring target captured image;
A vector acquisition unit that acquires an instruction vector from the value of the start point coordinate toward the value of the end point coordinate based on the value of the start point coordinate and the value of the end point coordinate received by the reception unit;
A camera control apparatus comprising: an instruction unit that transmits instruction information for instructing movement in the imaging direction to the camera control robot based on a direction component of the instruction vector acquired by the vector acquisition unit.
カメラの撮像方向を制御するカメラ制御ロボットと通信し、前記カメラの撮像方向の移動を指示するカメラ制御装置として動作するコンピュータに、
前記カメラによって撮像され、監視対象物画像の一部を含む監視対象撮像画像を取得する画像取得ステップと、
前記画像取得部によって取得された前記監視対象撮像画像を表示する表示ステップと、
前記監視対象撮像画像上に入力された始点座標の値と終点座標の値とを受け付ける受付ステップと、
前記受付部によって受け付けられた前記始点座標の値と前記終点座標値とに基づいて、前記始点座標の値から前記終点座標の値に向かう指示ベクトルを取得するベクトル取得ステップと、
前記ベクトル取得部によって取得された前記指示ベクトルの方向成分に基づいて、前記撮像方向の移動を指示する指示情報を前記カメラ制御ロボットに送信する指示ステップとして動作させる
ことを特徴とするカメラ制御プログラム。
A computer that communicates with a camera control robot that controls the imaging direction of the camera, and that operates as a camera control device that instructs movement of the imaging direction of the camera.
An image acquisition step of acquiring a monitoring target captured image including a part of the monitoring target image captured by the camera; and
A display step for displaying the monitoring target captured image acquired by the image acquisition unit;
A reception step of receiving a value of a start point coordinate and a value of an end point coordinate input on the monitoring target captured image;
A vector acquisition step of acquiring an instruction vector from the value of the start point coordinate toward the value of the end point coordinate based on the value of the start point coordinate and the end point coordinate value received by the reception unit;
A camera control program that operates as an instruction step for transmitting instruction information for instructing movement in the imaging direction to the camera control robot based on a direction component of the instruction vector acquired by the vector acquisition unit.
JP2007173407A 2007-06-29 2007-06-29 Camera control system, camera control apparatus and camera control program Pending JP2009016956A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007173407A JP2009016956A (en) 2007-06-29 2007-06-29 Camera control system, camera control apparatus and camera control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007173407A JP2009016956A (en) 2007-06-29 2007-06-29 Camera control system, camera control apparatus and camera control program

Publications (1)

Publication Number Publication Date
JP2009016956A true JP2009016956A (en) 2009-01-22

Family

ID=40357369

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007173407A Pending JP2009016956A (en) 2007-06-29 2007-06-29 Camera control system, camera control apparatus and camera control program

Country Status (1)

Country Link
JP (1) JP2009016956A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015507394A (en) * 2011-12-06 2015-03-05 アルカテル−ルーセント Spatial bookmark
WO2017056943A1 (en) * 2015-09-30 2017-04-06 富士フイルム株式会社 Imaging system, angle-of-view adjustment method, and angle-of-view adjustment program
CN108664889A (en) * 2017-03-28 2018-10-16 卡西欧计算机株式会社 Object detection device, object object detecting method and recording medium

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62226786A (en) * 1986-03-28 1987-10-05 Toshiba Corp Supervisory equipment
JPH10200807A (en) * 1997-01-14 1998-07-31 Hitachi Ltd Camera control method using graphical user interface
JP2000115754A (en) * 1998-10-08 2000-04-21 Canon Inc Remote controller and remote control method
JP2004125773A (en) * 2003-06-23 2004-04-22 Sumiden Asahi Industries Ltd Self-running machine for checking/inspection and method of checking/inspection by self-running machine
JP2007088584A (en) * 2005-09-20 2007-04-05 Sony Corp Monitor camera system, remote control monitor apparatus, control method, and control program thereof

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62226786A (en) * 1986-03-28 1987-10-05 Toshiba Corp Supervisory equipment
JPH10200807A (en) * 1997-01-14 1998-07-31 Hitachi Ltd Camera control method using graphical user interface
JP2000115754A (en) * 1998-10-08 2000-04-21 Canon Inc Remote controller and remote control method
JP2004125773A (en) * 2003-06-23 2004-04-22 Sumiden Asahi Industries Ltd Self-running machine for checking/inspection and method of checking/inspection by self-running machine
JP2007088584A (en) * 2005-09-20 2007-04-05 Sony Corp Monitor camera system, remote control monitor apparatus, control method, and control program thereof

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015507394A (en) * 2011-12-06 2015-03-05 アルカテル−ルーセント Spatial bookmark
WO2017056943A1 (en) * 2015-09-30 2017-04-06 富士フイルム株式会社 Imaging system, angle-of-view adjustment method, and angle-of-view adjustment program
CN108141533A (en) * 2015-09-30 2018-06-08 富士胶片株式会社 Camera system, visual angle regulating method and visual angle adjustment programme
US10356301B2 (en) 2015-09-30 2019-07-16 Fujifilm Corporation Imaging system, angle-of-view adjustment method, and angle-of-view adjustment program
CN108141533B (en) * 2015-09-30 2020-07-21 富士胶片株式会社 Imaging system, angle-of-view adjustment method, and non-transitory tangible storage medium
CN108664889A (en) * 2017-03-28 2018-10-16 卡西欧计算机株式会社 Object detection device, object object detecting method and recording medium

Similar Documents

Publication Publication Date Title
JP4954006B2 (en) Crack width measuring system, operating device, crack width measuring method, and crack width measuring program
US9667923B2 (en) Camera attitude detection device and work region line display device
JP6412474B2 (en) Crack width measurement system
JP2008055569A (en) Inspection robot
JPH11149315A (en) Robot control system
JP2002325708A (en) Robot cleaner, robot cleaning system and method for controlling the same
JPWO2003102706A1 (en) Remote operation robot and robot self-position identification method
JP6445151B2 (en) Robot apparatus and movement control method of robot apparatus
JP2017054475A (en) Teleoperation device, method and program
CN102561700A (en) Mechanical arm control system, method and engineering machinery
JP4802012B2 (en) Camera control apparatus and camera control method
JP2014063411A (en) Remote control system, control method, and program
JP2009016956A (en) Camera control system, camera control apparatus and camera control program
JP2018147158A (en) Control method of unmanned mobile body
JP4640191B2 (en) Surveillance camera system and surveillance camera direction control method
CA3205194A1 (en) Pipeline inspection device
JP5512261B2 (en) Ceiling monitoring robot system
JP2009175903A (en) Mobile object teaching system
JP2001158599A (en) Positioning device for boom for high lift work
JP2007016403A (en) Camera controller of work machine
JP2008077514A (en) Mobile robot and remote operation system
JP2014106576A (en) Control method for unmanned mobile body
JP2009294713A (en) Checking system, controller, checking method, and control program
JPH09146633A (en) Method and system for guiding robot
WO2022264556A1 (en) Method for controlling work assistance system, and program for controlling work assistance system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111115

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120306