JP2009016956A - Camera control system, camera control apparatus and camera control program - Google Patents
Camera control system, camera control apparatus and camera control program Download PDFInfo
- Publication number
- JP2009016956A JP2009016956A JP2007173407A JP2007173407A JP2009016956A JP 2009016956 A JP2009016956 A JP 2009016956A JP 2007173407 A JP2007173407 A JP 2007173407A JP 2007173407 A JP2007173407 A JP 2007173407A JP 2009016956 A JP2009016956 A JP 2009016956A
- Authority
- JP
- Japan
- Prior art keywords
- vector
- imaging direction
- instruction
- unit
- monitoring target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、カメラの撮像方向を制御するカメラ制御システム、カメラ制御装置、及びカメラ制御プログラムに関する。 The present invention relates to a camera control system, a camera control device, and a camera control program for controlling an imaging direction of a camera.
従来、監視対象物画像(例えば、構造物画像や人物画像)を含む監視対象撮像画像を取得するため、ユーザが表示部に表示される監視対象撮像画像を確認しながら、遠隔操作によりカメラの撮像方向(パン・チルト)を制御するカメラ制御システムが提案されている(例えば、特許文献1参照)。なお、このようなカメラ制御システムは、例えば、施設内を監視する監視システムや、住宅の床下を点検する床下点検システムなどに適用されている。 Conventionally, in order to acquire a monitoring target captured image including a monitoring target image (for example, a structure image or a person image), the user can perform remote control to capture the camera while confirming the monitoring target captured image displayed on the display unit. A camera control system that controls the direction (pan / tilt) has been proposed (see, for example, Patent Document 1). Note that such a camera control system is applied to, for example, a monitoring system for monitoring the inside of a facility, an underfloor inspection system for inspecting an underfloor of a house, and the like.
また、特許文献1に開示される技術では、表示部に表示される監視対象撮像画像内の上下左右側それぞれに領域が設けられており、ユーザが、マウスを用いて、例えば、上側の領域にカーソルをあわせてクリック操作を実行するだけで、カメラの撮像方向を上方向に移動させることができる。 Moreover, in the technique disclosed in Patent Document 1, areas are provided on the upper, lower, left, and right sides in the monitoring target captured image displayed on the display unit, and the user uses, for example, an upper area in the upper area. The camera's imaging direction can be moved upward simply by moving the cursor and executing a click operation.
しかし、特許文献1に開示される技術では、予め定められた上下左右方向にしかカメラの撮像方向を移動させることができない。よって、予め定められていない任意の方向、例えば、右斜め下方向にカメラの撮像方向を移動させる場合、ユーザは、右方向と下方向とに少しずつ撮像方向を移動するように操作して、カメラの撮像方向を右斜め下方向に移動させる必要がある。つまり、特許文献1に開示される技術では、任意の方向へカメラの撮像方向を移動させる場合、操作性が悪いという問題があった。 However, with the technique disclosed in Patent Document 1, the imaging direction of the camera can be moved only in predetermined vertical and horizontal directions. Therefore, when moving the imaging direction of the camera in an arbitrary direction that is not predetermined, for example, diagonally downward to the right, the user operates to move the imaging direction little by little in the right direction and the downward direction, It is necessary to move the image capturing direction of the camera diagonally downward to the right. In other words, the technique disclosed in Patent Document 1 has a problem that the operability is poor when the imaging direction of the camera is moved in an arbitrary direction.
そこで、この問題を解決する技術が提案されている(例えば、特許文献2参照)。特許文献2に開示される技術では、表示部に監視対象撮像画像を表示すると共に、当該監視対象撮像画像の中央には、アイコンが表示されている。また、ユーザが、当該アイコンを任意の方向に移動する操作(ドラッグ)を実行すると、カメラの撮像方向が操作した任意の方向に移動する。特許文献2に開示される技術によれば、ユーザは、表示される監視対象撮像画像を確認しながら、カメラの撮像方向を任意の方向へ移動させることができる。 Therefore, a technique for solving this problem has been proposed (see, for example, Patent Document 2). In the technique disclosed in Patent Document 2, a monitoring target captured image is displayed on the display unit, and an icon is displayed at the center of the monitoring target captured image. Further, when the user performs an operation (drag) for moving the icon in an arbitrary direction, the imaging direction of the camera moves in an arbitrary direction operated. According to the technique disclosed in Patent Literature 2, the user can move the imaging direction of the camera in an arbitrary direction while confirming the displayed monitoring target captured image.
ところで、監視対象撮像画像内に監視対象物画像が収まらない場合、ユーザは、遠隔操作により、監視対象物に沿ってカメラの撮像方向を移動させながら、監視対象物画像の一部を含む監視対象撮像画像を取得する場合がある。一例を挙げると、例えば、床下点検システムにおいて、床下に存在する基礎壁、配管、ゲーブルなどの監視対象物に沿ってカメラの撮像方向を移動させながら、監視対象物画像の一部を含む監視対象撮像画像を連続的に取得する場合がある。かかる場合、より正確に、かつ効率よく監視対象物画像の一部を含む監視対象撮像画像を取得するためには、より正確に監視対象物に沿ってカメラの撮像方向を移動させることが好ましい。 By the way, when the monitoring target image does not fit in the monitoring target captured image, the user can monitor the target including a part of the monitoring target image while moving the imaging direction of the camera along the monitoring target by remote control. A captured image may be acquired. For example, in an underfloor inspection system, for example, a monitoring target including a part of the monitoring target image while moving the imaging direction of the camera along the monitoring target such as a foundation wall, piping, or gable existing under the floor. There are cases where captured images are acquired continuously. In such a case, it is preferable to move the imaging direction of the camera along the monitoring object more accurately in order to acquire a monitoring object captured image including a part of the monitoring object image more accurately and efficiently.
このような場合、特許文献2に開示される技術では、ユーザが、監視対象撮像画像に含まれる監視対象物画像を参照し、中央に設けられているアイコンを監視対象物画像に沿って移動することで、監視対象物に沿ってカメラの撮像方向を移動させることも可能である。
しかしながら、取得された監視対象撮像画像には、監視対象物画像が監視対象撮像画像の中央ではなく、端に位置する場合がある。かかる場合、特許文献2に開示される技術を用いて、より正確に監視対象物に沿ってカメラの撮像方向を移動するためには、ユーザは、監視対象物画像の位置を監視対象撮像画像の中央に一度移動させて、中央に設けられているアイコンと監視対象物画像とを重ねた後、アイコンを再度移動させて、監視対象物に沿って撮像方向を移動させる必要がある。 However, in the acquired monitored object captured image, the monitored object image may be located at the end of the monitored object captured image instead of the center. In such a case, in order to move the imaging direction of the camera along the monitoring target more accurately using the technique disclosed in Patent Document 2, the user determines the position of the monitoring target image of the monitoring target captured image. It is necessary to move the image once along the monitoring object by moving the icon once in the center and overlapping the icon provided in the center with the monitoring object image and then moving the icon again.
つまり、従来技術では、ユーザは、撮像方向の移動用に予め設けられている固定箇所(例えば、中央に設けられたアイコン)に所定の操作を行って、カメラの撮像方向を移動させなければならず、監視対象撮像画像上の任意箇所に入力操作を行って、カメラの撮像方向を移動させることができなかった。よって、従来技術において、監視対象物に沿ってカメラの撮像方向をより正確に移動させるためには、撮像方向の移動用に予め設けられている固定箇所と監視対象物画像とを重ねるという操作が発生するため、操作性が悪いという問題があった。 In other words, in the prior art, the user must move the imaging direction of the camera by performing a predetermined operation on a fixed location (for example, an icon provided in the center) provided in advance for movement in the imaging direction. Therefore, it was impossible to move the imaging direction of the camera by performing an input operation at an arbitrary location on the monitoring target captured image. Therefore, in the prior art, in order to move the imaging direction of the camera along the monitoring target more accurately, an operation of superimposing a fixed location provided in advance for movement in the imaging direction and the monitoring target image is performed. Because of this, there was a problem that the operability was poor.
そこで、本発明は以上の点に鑑みてなされたもので、監視対象物画像の一部を含む監視対象撮像画像を取得する場合に、監視対象物に沿ってカメラの撮像方向をより正確に移動させつつ、操作性を向上させることが可能なカメラ制御システム、カメラ制御装置、及びカメラ制御プログラムを提供することを目的とする。 Therefore, the present invention has been made in view of the above points, and when acquiring a monitoring target captured image including a part of the monitoring target image, the camera imaging direction is more accurately moved along the monitoring target. It is an object of the present invention to provide a camera control system, a camera control device, and a camera control program that can improve operability.
本発明の特徴は、カメラの撮像方向を制御するカメラ制御システム(例えば、床下点検システム1000)であって、前記カメラによって撮像され、監視対象物画像(例えば、ケーブルの画像)の一部を含む監視対象撮像画像を取得する画像取得部と、前記画像取得部によって取得された前記監視対象撮像画像を表示する表示部と、前記監視対象撮像画像上に入力された始点座標の値と終点座標の値とを受け付ける受付部と、前記受付部によって受け付けられた前記始点座標の値と前記終点座標の値とに基づいて、前記始点座標の値から前記終点座標の値に向かう指示ベクトルを取得するベクトル取得部と、前記ベクトル取得部によって取得された前記指示ベクトルの方向成分に基づいて、前記撮像方向を移動する動作部(パン用モータ232又はチルト用モータ233又は走行用モータ25)とを備えることを要旨とするものである。
A feature of the present invention is a camera control system (e.g., an underfloor inspection system 1000) that controls an imaging direction of a camera, and includes a part of a monitoring object image (e.g., an image of a cable) captured by the camera. An image acquisition unit for acquiring a monitoring target captured image, a display unit for displaying the monitoring target captured image acquired by the image acquisition unit, and a start point coordinate value and an end point coordinate input on the monitoring target captured image A vector for acquiring an instruction vector from the value of the start point coordinate to the value of the end point coordinate based on the value of the start point coordinate and the value of the end point coordinate received by the accepting unit Based on the direction component of the instruction vector acquired by the acquisition unit and the vector acquisition unit, an operation unit (
かかる特徴によれば、カメラ制御システムは、監視対象撮像画像上に入力された始点座標の値と終点座標の値からなる指示ベクトルに基づいて、カメラの撮像方向を移動する。本発明に係るカメラ制御システムでは、ユーザは、監視対象撮像画像の任意の位置に指示ベクトルを入力するのみで、撮像方向を移動させることができる。よって、かかる特徴によれば、カメラ制御システムでは、監視対象物画像の一部を含む監視対象撮像画像を取得する場合に、監視対象物に沿ってカメラの撮像方向をより正確に移動させつつ、操作性を向上させることができる。 According to this feature, the camera control system moves the imaging direction of the camera based on the instruction vector composed of the start point coordinate value and the end point coordinate value input on the monitoring target captured image. In the camera control system according to the present invention, the user can move the imaging direction only by inputting an instruction vector to an arbitrary position of the monitoring target captured image. Therefore, according to such a feature, in the camera control system, when acquiring a monitoring target captured image including a part of the monitoring target object image, while moving the imaging direction of the camera along the monitoring target more accurately, Operability can be improved.
また、本発明の特徴は、上記特徴に係り、前記動作部は、前記撮像方向を移動する際、移動前の前記監視対象撮像画像と移動後の監視対象撮像画像とが重複する重複領域を残すように前記撮像方向を移動してもよい。かかる特徴によれば、カメラ制御システムは、移動前の監視対象撮像画像と移動後の監視対象撮像画像とに重複領域が残るように撮像方向を移動するので、重複領域を有する二つの画像を効率よく取得することができる。 In addition, a feature of the present invention is related to the above feature, and when the operation unit moves in the imaging direction, the operation unit leaves an overlapping region where the monitoring target captured image before the movement and the monitoring target captured image after the movement overlap. As described above, the imaging direction may be moved. According to such a feature, the camera control system moves the imaging direction so that the overlapping area remains in the monitoring target captured image before the movement and the monitoring target captured image after the movement. Can get well.
また、本発明の特徴は、上記特徴に係り、前記指示ベクトルの長さ成分を調整した修正ベクトルを算出する修正ベクトル算出部と、前記監視対象撮像画像の中心から、前記指示ベクトル上の点に向かう補正ベクトルを算出する補正ベクトル算出部とを更に備え、前記動作部は、前記補正ベクトルと前記修正ベクトルとを加算した移動ベクトルに基づいて、前記撮像方向を移動してもよい。かかる特徴によれば、カメラ制御システムは、入力された指示ベクトルの長さ成分が、例えば、短い場合や長い場合であっても、当該指示ベクトルの長さ成分を適切に調整した修正ベクトルを算出する。また、カメラ制御システムでは、監視対象撮像画像上の中心から指示ベクトル上の点に向かう補正ベクトルを算出し、補正ベクトルと修正ベクトルとを加算した移動ベクトルに基づいて、撮像方向を移動する。ここで、例えば、ユーザは、監視を望む監視対象物画像にあわせて指示ベクトルを入力する場合など、監視対象撮像画像上の特定の位置に意図的に指示ベクトルを入力する場合がある。かかる場合、上述したカメラ制御システムでは、当該指示ベクトル上の点(位置)に向かう補正ベクトルを含む移動ベクトルにより、監視対象撮像画像上の特定の位置に向かうように、撮像方向を移動することができる。よって、ユーザが撮像方向を移動する際の操作性を向上させることができる。 In addition, a feature of the present invention relates to the above feature, a correction vector calculation unit that calculates a correction vector in which a length component of the instruction vector is adjusted, and a point on the instruction vector from a center of the monitoring target captured image. A correction vector calculation unit that calculates a correction vector to go may further be provided, and the operation unit may move the imaging direction based on a movement vector obtained by adding the correction vector and the correction vector. According to such a feature, the camera control system calculates a correction vector in which the length component of the instruction vector is appropriately adjusted even when the length component of the input instruction vector is short or long, for example. To do. Further, the camera control system calculates a correction vector from the center on the monitored target captured image to a point on the instruction vector, and moves the imaging direction based on a movement vector obtained by adding the correction vector and the correction vector. Here, for example, the user may intentionally input the instruction vector at a specific position on the monitoring target captured image, for example, when inputting the instruction vector in accordance with the monitoring object image desired to be monitored. In such a case, in the above-described camera control system, the imaging direction can be moved so as to go to a specific position on the monitoring target captured image by a movement vector including a correction vector directed to a point (position) on the instruction vector. it can. Therefore, the operability when the user moves in the imaging direction can be improved.
また、本発明の特徴は、上記特徴に係り、前記指示ベクトルの長さ成分を調整した修正ベクトルを算出する修正ベクトル算出部と、前記監視対象撮像画像の中心から、前記指示ベクトル上の点に向かう補正ベクトルを算出する補正ベクトル算出部とを更に備え、前記動作部は、前記補正ベクトルに従って前記撮像方向を移動した後、前記修正ベクトルに従って前記撮像方向を移動してもよい。かかるカメラ制御システムでは、監視対象撮像画像上の中心から指示ベクトル上の点に向かう補正ベクトルに従って撮像方向を移動した後、修正ベクトルに従って撮像方向を移動するので、ユーザが、監視を望む監視対象物画像にあわせて指示ベクトルを入力するだけで、監視対象物画像をより確実に含む監視対象物撮像画像を取得することができる。 In addition, a feature of the present invention relates to the above feature, a correction vector calculation unit that calculates a correction vector in which a length component of the instruction vector is adjusted, and a point on the instruction vector from a center of the monitoring target captured image. And a correction vector calculation unit that calculates a correction vector to go. The operation unit may move the imaging direction according to the correction vector after moving the imaging direction according to the correction vector. In such a camera control system, the imaging direction is moved in accordance with the correction vector after moving the imaging direction in accordance with the correction vector directed from the center on the monitored image to the point on the instruction vector. By simply inputting an instruction vector in accordance with the image, it is possible to acquire a monitoring object captured image that more reliably includes the monitoring object image.
また、本発明の特徴は、上記特徴に係り、前記指示ベクトルの方向成分と、一定である前記重複領域の面積とに基づいて、前記指示ベクトルの長さ成分を調整した修正ベクトルを算出する修正ベクトル算出部とを更に備え、前記動作部は、前記修正ベクトルに基づいて、前記撮像方向を移動してもよい。かかる特徴によれば、カメラ制御システムでは、入力された指示ベクトルに応じて重複領域を算出し、当該重複領域に応じて修正ベクトルが算出される。つまり、かかるカメラ制御システムでは、ユーザは、指示ベクトルを入力する際、例えば、指示ベクトルの入力操作を行うだけで、移動前の監視対象撮像画像と移動後の監視対象撮像画像とが一定の面積だけ重複する重複領域を残して、撮像方向を移動させることができる。 According to another aspect of the present invention, there is provided a correction for calculating a correction vector in which a length component of the instruction vector is adjusted based on a direction component of the instruction vector and a constant area of the overlapping region. A vector calculation unit, and the operation unit may move the imaging direction based on the correction vector. According to this feature, the camera control system calculates an overlapping area according to the input instruction vector, and calculates a correction vector according to the overlapping area. That is, in such a camera control system, when a user inputs an instruction vector, for example, the user only performs an input operation of the instruction vector, and the monitoring target captured image before the movement and the monitoring target captured image after the movement have a certain area. As a result, it is possible to move the imaging direction while leaving only overlapping areas.
また、本発明の特徴は、上記特徴に係り、前記撮像方向の移動前の前記監視対象撮像画像内に収まる第1楕円の形状と、前記撮像方向の移動後の監視対象撮像画像内に収まる第2楕円の形状を算出すると共に、前記第1楕円と前記第1楕円に外接するように定められた前記第2楕円とに基づいて、前記指示ベクトルの長さ成分を調整した修正ベクトルを算出する修正ベクトル算出部を更に備え、前記動作部は、算出された前記修正ベクトルに基づいて、前記撮像方向を移動してもよい。かかる特徴によれば、カメラ制御システムでは、ユーザが、指示ベクトルを入力すると、撮像方向の移動前の監視対象撮像画像内に収まる第1楕円の形状と、撮像方向の移動後の監視対象撮像画像内に収まる第2楕円の形状を算出する。また、カメラ制御システムでは、修正ベクトル算出部が、第1楕円と、当該第1楕円に外接するように定められた第2楕円とに基づいて、指示ベクトルの長さ成分を調整した修正ベクトルを算出し、動作部は、算出された修正ベクトルに基づいて、撮像方向を移動する。ここで、第1楕円と第2楕円とが外接することから、移動前の監視対象撮像画像と移動後の監視対象撮像画像との間に重複領域が形成される。よって、カメラ制御システムでは、ユーザが、指示ベクトルを入力すると、移動前の監視対象撮像画像と移動後の監視対象撮像画像との間に重複領域を形成しつつ、撮像方向を移動することができる。なお、第1楕円及び第2楕円の形状は、一定形状であってもよいし、指示ベクトルの長さ成分に応じて算出してもよい。 In addition, the feature of the present invention is related to the above feature, wherein the shape of the first ellipse that fits in the monitoring target captured image before movement in the imaging direction, and the first ellipse shape that fits in the monitoring target captured image after movement in the imaging direction. Calculating the shape of two ellipses, and calculating a modified vector obtained by adjusting the length component of the instruction vector based on the first ellipse and the second ellipse determined to circumscribe the first ellipse The image processing apparatus may further include a correction vector calculation unit, and the operation unit may move the imaging direction based on the calculated correction vector. According to such a feature, in the camera control system, when the user inputs an instruction vector, the shape of the first ellipse that fits within the monitoring target captured image before movement in the imaging direction and the monitoring target captured image after movement in the imaging direction. The shape of the second ellipse that falls within is calculated. In the camera control system, the correction vector calculation unit calculates a correction vector obtained by adjusting the length component of the instruction vector based on the first ellipse and the second ellipse that is circumscribed by the first ellipse. Then, the operation unit moves the imaging direction based on the calculated correction vector. Here, since the first ellipse and the second ellipse are circumscribed, an overlapping region is formed between the monitoring target captured image before the movement and the monitoring target captured image after the movement. Therefore, in the camera control system, when the user inputs an instruction vector, the imaging direction can be moved while forming an overlapping area between the monitoring target captured image before the movement and the monitoring target captured image after the movement. . Note that the shapes of the first ellipse and the second ellipse may be fixed shapes, or may be calculated according to the length component of the instruction vector.
また、本発明の特徴は、上記特徴に係り、前記動作部は、前記カメラを搭載するカメラ制御ロボット(移動ロボット20)に備えられ、車輪又はクローラ駆動する駆動部であってもよい。かかるカメラ制御システムでは、動作部は、車輪又はクローラ駆動を用いて、カメラ制御ロボットが地上を移動するための駆動部として機能する。よって、カメラ制御システムでは、例えば、動作部によって、カメラ制御ロボットを移動させることで、カメラの撮像方向を移動させることができる。 A feature of the present invention is related to the above feature, wherein the operation unit may be a drive unit that is provided in a camera control robot (mobile robot 20) on which the camera is mounted and that drives a wheel or a crawler. In such a camera control system, the operation unit functions as a drive unit for the camera control robot to move on the ground using wheels or a crawler drive. Therefore, in the camera control system, for example, by moving the camera control robot by the operation unit, the imaging direction of the camera can be moved.
また、本発明の特徴は、カメラの撮像方向を制御するカメラ制御ロボット(移動ロボット20)と通信し、前記カメラの撮像方向の移動を指示するカメラ制御装置(操作端末10)であって、前記カメラによって撮像され、監視対象物画像の一部を含む監視対象撮像画像を取得する画像取得部(制御部164)と、前記画像取得部によって取得された前記監視対象撮像画像を表示する表示部と、前記監視対象撮像画像上に入力された始点座標の値と終点座標の値とを受け付ける受付部(入力部15)と、前記受付部によって受け付けられた前記始点座標の値と前記終点座標の値とに基づいて、前記始点座標の値から前記終点座標の値に向かう指示ベクトルを取得するベクトル取得部(制御部164)と、前記ベクトル取得部によって取得された前記指示ベクトルの方向成分に基づいて、前記撮像方向の移動を指示する指示情報を前記カメラ制御ロボットに送信する指示部(撮像方向指示部169)とを備えることを要旨とするものである。 A feature of the present invention is a camera control apparatus (operation terminal 10) that communicates with a camera control robot (mobile robot 20) that controls an imaging direction of a camera and instructs movement of the imaging direction of the camera. An image acquisition unit (control unit 164) that acquires a monitoring target captured image that is captured by a camera and includes a part of the monitoring target object image; and a display unit that displays the monitoring target captured image acquired by the image acquisition unit; A reception unit (input unit 15) that receives the value of the start point coordinate and the value of the end point coordinate input on the monitoring target captured image, and the value of the start point coordinate and the value of the end point coordinate received by the reception unit And a vector acquisition unit (control unit 164) for acquiring an instruction vector from the start point coordinate value toward the end point coordinate value, and the vector acquisition unit. Based on the direction component of the indicator vector is for summarized in that provision of an indicator portion and (imaging direction instruction section 169) that transmits instruction information for instructing the movement of the imaging direction to the camera control robot.
また、本発明の特徴は、カメラの撮像方向を制御するカメラ制御ロボットと通信し、前記カメラの撮像方向の移動を指示するカメラ制御装置として動作するコンピュータに、前記カメラによって撮像され、監視対象物画像の一部を含む監視対象撮像画像を取得する画像取得ステップと、前記画像取得部によって取得された前記監視対象撮像画像を表示する表示ステップと、前記監視対象撮像画像上に入力された始点座標の値と終点座標の値とを受け付ける受付ステップと、前記受付部によって受け付けられた前記始点座標の値と前記終点座標の値とに基づいて、前記始点座標の値から前記終点座標の値に向かう指示ベクトルを取得するベクトル取得ステップと、前記ベクトル取得部によって取得された前記指示ベクトルの方向成分に基づいて、前記撮像方向の移動を指示する指示情報を前記カメラ制御ロボットに送信する指示ステップとして動作させることを要旨とするカメラ制御プログラムに関するものである。 In addition, a feature of the present invention is that a computer that operates as a camera control device that communicates with a camera control robot that controls the imaging direction of the camera and instructs the camera to move in the imaging direction is imaged by the camera and monitored. An image acquisition step for acquiring a monitoring target captured image including a part of the image, a display step for displaying the monitoring target captured image acquired by the image acquisition unit, and a start point coordinate input on the monitoring target captured image And a reception step of receiving the value of the end point coordinate and the value of the end point coordinate, and from the value of the start point coordinate to the value of the end point coordinate based on the value of the start point coordinate and the value of the end point coordinate received by the reception unit Based on a vector acquisition step of acquiring an instruction vector, and a direction component of the instruction vector acquired by the vector acquisition unit It relates a camera control program to subject matter that is operated as an instruction step of transmitting the instruction information for instructing the movement of the imaging direction to the camera control robot.
本発明の特徴によれば、監視対象物画像の一部を含む監視対象撮像画像を取得する場合に、監視対象物に沿ってカメラの撮像方向をより正確に移動させつつ、操作性を向上させることが可能なカメラ制御システム、カメラ制御装置、及びカメラ制御プログラムを提供することができる。 According to the features of the present invention, when acquiring a monitoring target captured image including a part of the monitoring target image, the operability is improved while moving the imaging direction of the camera along the monitoring target more accurately. It is possible to provide a camera control system, a camera control device, and a camera control program.
[第1実施形態]
本発明の第1実施形態について説明する。なお、以下の図面の記載において、同一または類似の部分には、同一または類似の符号を付している。ただし、図面は模式的なものであることに留意すべきである。
[First Embodiment]
A first embodiment of the present invention will be described. In the following description of the drawings, the same or similar parts are denoted by the same or similar reference numerals. However, it should be noted that the drawings are schematic.
(本発明の第1実施形態に係る床下点検システムの概略)
本発明の第1実施形態に係る床下点検システム1000の概略について、図を参照して説明する。なお、本実施形態において、床下点検システム1000は、カメラ制御システムを構成する。図1には、本実施形態に係る床下点検システム1000の全体概略構成が示されている。図1に示すように、本実施形態に係る床下点検システム1000は、操作端末10と、移動ロボット20とを備える。
(Outline of the underfloor inspection system according to the first embodiment of the present invention)
An outline of the
操作端末10は、建造物の床上等に存在し、移動ロボット20は、床下に存在する。また、操作端末10と移動ロボット20との間では、無線通信が行われている。なお、操作端末10と移動ロボット20との間における通信は、無線回線を用いてもよいし、有線回線を用いてもよい。
The
操作端末10は、ユーザ入力に応じて、移動ロボット20を操作する遠隔操作コマンドを移動ロボット20へ送信し、移動ロボット20を遠隔操作する。この遠隔操作コマンドには、移動に関するコマンドや、撮像に関するコマンドなどが存在する。また、操作端末10は、例えば、ノート型コンピュータ等を使用できる。
The
なお、図1においては、移動ロボット20及び操作端末10が建造物内に存在する場合を例示しているが、操作端末10は、建造物の外部から移動ロボット20を遠隔操作することも可能である。
Although FIG. 1 illustrates the case where the
(床下環境の一例)
次に、床下環境の一例について説明する。図2は、床下環境の一例を示す図である。床下は、高さ32cm〜37cm程度の空間であり、基礎により長方形の区画に区切られている。なお、移動ロボット20が床下点検時に確認すべき内容としては、基礎壁のクラックや、配管の水漏れ、ケーブルの破損状態などがある。
(Example of underfloor environment)
Next, an example of an underfloor environment will be described. FIG. 2 is a diagram illustrating an example of an underfloor environment. The floor is a space with a height of about 32 cm to 37 cm, and is divided into rectangular sections by a foundation. The contents to be confirmed by the
更に、基礎近くには、束と呼ばれる細い柱があらゆる場所に存在する。束を固定するための束基礎と呼ばれる5cm程度の高さのコンクリ台が存在する。なお、床下地面がコンクリである場合には、床下地面に束が直接固定されており、束基礎が存在しない場合もある。 Furthermore, there are thin pillars called bundles everywhere near the foundation. There is a concrete stand with a height of about 5 cm called a bundle foundation for fixing the bundle. In addition, when the floor base surface is concrete, the bundle is directly fixed to the floor base surface, and the bundle foundation may not exist.
移動ロボット20は、操作端末10の制御下で、床下の床下地面上を移動して床下を撮像し、監視対象撮像画像を取得する。具体的には、移動ロボット20は、床下内に設けられている基礎壁、床下天井、配管、ケーブル等を監視対象物として撮像し、撮像して得られた監視対象物の画像(監視対象物画像)を含む監視対象撮像画像(画像情報)を操作端末10へ送信する。また、操作端末10は、移動ロボット20から受信した監視対象撮像画像をリアルタイムに表示する。
Under the control of the
(本発明の第1実施形態に係る床下点検システムの構成)
次に、図3を参照し、床下点検システム1000の構成について具体的に説明する。また、以下、本発明との関連がある部分について主に説明する。したがって、床下点検システム1000は、床下点検システムとしての機能を実現する上で必須な、図示しない或いは説明を省略した機能ブロック(電源部など)を備える場合があることに留意されたい。上述したように、本実施形態に係る床下点検システム1000は、操作端末10と、移動ロボット20とを備える。
(Configuration of the underfloor inspection system according to the first embodiment of the present invention)
Next, the configuration of the
(第1実施形態に係る操作端末の構成)
まず、図3を参照し、操作端末10の構成について具体的に説明する。図3に示すように、操作端末10は、通信部12と、表示部14と、入力部15と、操作制御部16とを備える。
(Configuration of operation terminal according to the first embodiment)
First, the configuration of the
通信部12は、移動ロボット20との間で、各種情報を送受信する。具体的に、通信部12は、移動ロボット20から送信された監視対象撮像画像などを受信する。また、通信部12は、遠隔操作コマンドなどを移動ロボット20に送信する。なお、本実施形態において、通信部12は、移動ロボット20のカメラによって撮像され、監視対象物画像の一部を含む監視対象撮像画像を取得する画像取得部を構成する。
The
表示部14は、通信部12によって受信された監視対象物画像の一部を含む監視対象撮像画像を表示する。また、表示部14は、ユーザが入力部15を用いて、監視対象撮像画像上に指示ベクトルを入力した際、監視対象撮像画像上に指示ベクトルを表示する。なお、指示ベクトルの詳細については、後述する(図4参照)。
The
入力部15は、ユーザからの入力を受け付ける。また、入力部15は、ユーザによって入力された遠隔操作コマンドを受け付ける。また、入力部15は、表示部14に表示されている監視対象撮像画像を参照するユーザによって、監視対象撮像画像上に指示ベクトルが入力されると、この情報を操作制御部16に出力する。
The
ここで、図4には、ユーザが入力部15を用いて、表示部14に表示される画像に入力した指示ベクトルrの一例が示されている。図4に示すように、ユーザは、入力部15(例えば、マウス)を用いて、表示部14に表示されるカーソルを、指示ベクトルrの始点座標P1でクリックダウンし、ドラッグしたまま指示ベクトルrの終点座標P2でクリックアップして、指示ベクトルrを入力する。また、入力部15は、指示ベクトルrが入力されると、監視対象撮像画像Fの中心を原点として、始点座標P1の座標値(本発明に係る始点座標の値)と終点座標P2の座標値(本発明に係る終点座標の値)とを含む指示ベクトル情報を、操作制御部16に出力する。なお、当該指示ベクトル情報は、移動ロボット20のカメラ231の撮像方向を移動するために用いられる情報である。本実施形態において、入力部15は、ユーザによって監視対象撮像画像上に入力された始点座標P1と終点座標P2とを受け付ける受付部を構成する。
Here, FIG. 4 shows an example of the instruction vector r input to the image displayed on the
また、本実施形態に係る床下点検システム1000では、カメラ231の撮像方向を移動する方法として、指示ベクトルrの方向成分に基づいて撮像方向を移動する第1モードと、指示ベクトルrが入力された監視対象撮像画像上の位置を考慮して撮像方向を移動する第2乃至第3モードとを用いることが可能である。なお、第1乃至第3モードの詳細については後述する。入力部15は、第1乃至第3モードのいずれのモードを用いるかについて、ユーザから指示を受け付けて、当該モードを示すモード情報を操作制御部16に出力する。
In the
操作制御部16は、操作端末10の各種機能を制御する。具体的に、操作制御部16は、通信部12によって受信された監視対象物画像の一部を含む監視対象撮像画像を表示部14に表示させる。また、操作制御部16は、入力部15から出力された指示ベクトル情報やモード情報に基づいて、カメラの撮像方向の移動を指示する撮像方向指示情報を、通信部12を介して移動ロボット20に送信する。
The
(第1実施形態に係る操作端末の操作制御部の構成)
次に、本実施形態に係る操作制御部16の構成について図を参照して説明する。図5に示すように、操作制御部16は、送受信部162と、記憶部163と、制御部164と、重複領域算出部165と、修正ベクトル算出部166と、補正ベクトル算出部167とを備える。
(Configuration of operation control unit of operation terminal according to first embodiment)
Next, the configuration of the
送受信部162は、入力部15によって受け付けられた各種情報を受信する。また、送受信部162は、入力部15から送信された指示ベクトル情報を受信する。また、送受信部162は、入力部15からモード情報を受信すると、当該モード情報を記憶部163に記憶する。
The transmission /
記憶部163は、通信部12で受信された監視対象撮像画像や、移動ロボット20を遠隔操作するための遠隔操作コマンド等の各種設定情報を記憶する。また、記憶部163は、送受信部162において、モード情報が受信されると、当該モード情報に含まれる第1乃至第3モードを記憶する。例えば、記憶部163は、モード情報に、第1モードを示す情報が含まれている場合、図6に示すように、第1モードを「使用」として、他の第2乃至第3モードを「未使用」として記憶する。
The
制御部164は、操作制御部16内の各種機能を制御する。また、制御部164は、通信部12から監視対象撮像画像を受信すると、当該監視対象撮像画像を表示部14に出力し、表示部14に表示させる。また、制御部164は、送受信部162において、指示ベクトル情報が受信されると、当該指示ベクトル情報に含まれる始点座標P1と終点座標P2とに基づいて、始点座標P1の座標値から終点座標P2の座標値に向かう指示ベクトルrを取得する。
The
また、制御部164は、指示ベクトルrを取得すると、記憶部163を参照し、第1乃至第3モードの何れのモードが「使用」であるか否かを判定する。例えば、制御部164は、記憶部163を参照した際、第1モードが「使用」である場合、指示ベクトル情報を、修正ベクトル算出部166に出力する。
In addition, when acquiring the instruction vector r, the
また、制御部164は、記憶部163を参照した際、第2モードが「使用」である場合、指示ベクトル情報を、修正ベクトル算出部166と補正ベクトル算出部167とに出力する。
Further, when the second mode is “use” when referring to the
また、制御部164は、記憶部163を参照した際、第3モードが「使用」である場合、指示ベクトル情報を、補正ベクトル算出部167と移動ベクトル算出部168とに出力する。本実施形態において、制御部164は、ベクトル取得部を構成する。
In addition, when the third mode is “use” when the
重複領域算出部165は、指示ベクトルrの方向成分に基づいて、移動前の監視対象撮像画像と移動後の監視対象撮像画像との間における重複領域の面積を取得する。なお、本実施形態において、重複領域算出部165は、予め記憶する一定面積Sの重複領域を取得することとする。また、重複領域算出部165は、重複領域の面積Sを、修正ベクトル算出部166と、移動ベクトル算出部168とに出力する。
The overlapping
修正ベクトル算出部166は、指示ベクトルrの長さ成分を調整した修正ベクトルr1を算出する。また、修正ベクトル算出部166は、指示ベクトルrの方向成分と、一定面積Sの重複領域とに基づいて、修正ベクトルr1の長さ成分を調整する。具体的に、修正ベクトル算出部166は、移動前の監視対象撮像画像と移動後の監視対象撮像画像との間に重複領域を有するように移動後の監視対象撮像画像の中心の座標を算出する。また、本実施形態では、修正ベクトル算出部166は、重複領域が重複領域算出部165から入力した一定面積Sになるように、移動後の監視対象撮像画像の中心の座標を算出する。
The correction
ここで、図7には、監視対象撮像画像Fに入力された指示ベクトルrと、移動前の監視対象撮像画像Fと、移動後の監視対象撮像画像Fmと、算出された修正ベクトルr1のイメージが示されている。また、同図に示すように、本実施形態では、監視対象撮像画像の水平方向の間隔をHとし、垂直方向の間隔をVとする。また、本実施形態において、重複領域RAは、水平方向の間隔aと垂直方向の間隔bとによって、面積S=a×bで示される。 Here, in FIG. 7, the instruction vector r input to the monitoring target captured image F, the monitoring target captured image F before the movement, the monitoring target captured image Fm after the movement, and the image of the calculated correction vector r1. It is shown. Further, as shown in the figure, in this embodiment, the horizontal interval between the monitored images is H, and the vertical interval is V. In the present embodiment, the overlapping area RA is represented by an area S = a × b by a horizontal interval a and a vertical interval b.
具体的に、修正ベクトル算出部166が修正ベクトルr1を算出する方法について説明する。修正ベクトル算出部166は、制御部164から指示ベクトル情報が入力されると、当該指示ベクトル情報に含まれる始点座標P1の座標値から終点座標P2の座標値に向かう指示ベクトルrを取得する。また、修正ベクトル算出部166は、指示ベクトル情報に含まれる指示ベクトルrの始点座標P1と終点座標P2とに基づいて、指示ベクトルrの角度θを算出する。
Specifically, a method in which the correction
ここで、移動前の監視対象撮像画像Fの中心を原点(0,0)とし、移動後の監視対象撮像画像Fmの中心の座標を(x,y)とすると、座標(x,y)は、下記に示す(1)式の関係式によって示される。
また、例えば、指示ベクトルrの角度θを第1象限の角度(0度〜90度)とすると、移動後の監視対象撮像画像Fmの中心の座標“x”は、下記に示す(2)式の関係式によって示される。
Further, for example, if the angle θ of the instruction vector r is the angle in the first quadrant (0 degree to 90 degrees), the coordinate “x” of the center of the monitoring target captured image Fm after the movement is expressed by the following equation (2) It is shown by the relational expression.
よって、修正ベクトル算出部166は、上述した(1)乃至(2)式に基づいて、移動後の監視対象撮像画像Fmの中心の座標 (x,y)を、下記の(3)式により算出する。
Therefore, the correction
なお、修正ベクトル算出部166は、指示ベクトルrの角度θが、(I)0度、(II)90度、(III)180度、(IV)270度の場合は、下記に示すように式(4)乃至(7)式に基づいて、移動後の監視対象撮像画像Fmの中心の座標 (x,y)を算出する。
When the angle θ of the instruction vector r is (I) 0 degrees, (II) 90 degrees, (III) 180 degrees, and (IV) 270 degrees, the correction
(I) θ=0(ゼロ)度の場合
(II) θ=90度の場合
(II) When θ = 90 degrees
(III) θ=180度の場合
(III) When θ = 180 degrees
(IV) θ=270度の場合
(IV) When θ = 270 degrees
このようにして、修正ベクトル算出部166は、図7に示すように、原点座標(0,0)を始点とし、算出した移動後の監視対象撮像画像Fmの中心の座標(x,y)を終点とする修正ベクトルr1を算出する。また、修正ベクトル算出部166は、算出した修正ベクトルr1を撮像方向指示部169に出力する。
In this way, as shown in FIG. 7, the correction
補正ベクトル算出部167は、移動前の監視対象撮像画像Fの中心から、指示ベクトルr上の点に向かう補正ベクトルr2を算出する。具体的に、補正ベクトル算出部167は、制御部164から指示ベクトル情報が入力されると、当該指示ベクトル情報に含まれる始点座標P1の座標値から終点座標P2の座標値に向かう指示ベクトルrを取得する。また、補正ベクトル算出部167は、指示ベクトル情報に含まれる指示ベクトルrの始点座標P1と終点座標P2とを結ぶ第1直線を算出する。また、補正ベクトル算出部167は、監視対象撮像画像Fの中心(原点)を通過し、算出した第1直線と直交する第2直線を算出する。また、補正ベクトル算出部167は、図8に示すように、第1直線と第2直線との交点をP3とし、当該交点P3の座標(x2,y2)を算出する。また、補正ベクトル算出部167は、算出した交点P3座標(x2,y2)に基づいて、移動前の監視対象撮像画像Fの原点を始点座標とし、交点P3を終点座標とする補正ベクトルr2を算出する。また、補正ベクトル算出部167は、算出した補正ベクトルr2を、移動ベクトル算出部168と撮像方向指示部169に出力する。
The correction vector calculation unit 167 calculates a correction vector r2 from the center of the monitoring target captured image F before movement toward a point on the instruction vector r. Specifically, when the instruction vector information is input from the
移動ベクトル算出部168は、監視対象撮像画像の中心から、補正ベクトルr2と修正ベクトルr1とを加算した移動ベクトルr3を算出する。このとき、移動ベクトル算出部168は、移動前の監視対象撮像画像と移動後の監視対象撮像画像との間に重複領域を有するように、修正ベクトルr1の長さ成分を調節し、移動後の監視対象撮像画像の中心を算出する。また、本実施形態では、移動ベクトル算出部168は、重複領域が重複領域算出部165から入力した一定面積Sになるように、移動後の監視対象撮像画像の中心を算出する。
The movement
ここで、図9には、補正ベクトルr2と修正ベクトルr1とを加算した移動ベクトルr3と、移動前の監視対象撮像画像Fと、移動後の監視対象撮像画像Fmaとのイメージが示されている。また、重複領域RAは、水平方向の間隔aと垂直方向の間隔bとによって、面積S=a×bで示される。 Here, FIG. 9 shows images of the movement vector r3 obtained by adding the correction vector r2 and the correction vector r1, the monitoring target captured image F before the movement, and the monitoring target captured image Fma after the movement. . The overlapping area RA is represented by an area S = a × b by a horizontal interval a and a vertical interval b.
また、移動ベクトル算出部168は、制御部164から指示ベクトル情報が入力されると、当該指示ベクトル情報に含まれる始点座標P1の座標値から終点座標P2の座標値に向かう指示ベクトルrを取得する。また、移動ベクトル算出部168は、指示ベクトル情報に含まれる指示ベクトルrの始点座標P1と終点座標P2とに基づいて、指示ベクトルrの角度θを算出する。
In addition, when the instruction vector information is input from the
ここで、図9に示すように、移動前の監視対象撮像画像Fの中心の座標を(0,0)とし、移動後の監視対象撮像画像Fmの中心の座標を(x,y)とすると、移動ベクトルr3(x,y)は、下記に示す(8)乃至(10)式の関係式によって示される。
なお、(9)乃至(10)式において、“a”は重複領域RAの面積Sにおける水平方向の間隔を示し、“b”は重複領域RAの面積Sにおける垂直方向の間隔を示す。また、(9)乃至(10)式において、“+”と“−”の符号は、指示ベクトルrの角度θが、第1乃至第4象限の何れの角度であるかに応じて変更する。例えば、指示ベクトルrの角度θを第1象限の角度(0度〜90度)とすると、(9)乃至(10)式において、符号は共に“+”の符号となる。
In the equations (9) to (10), “a” indicates a horizontal interval in the area S of the overlapping region RA, and “b” indicates a vertical interval in the area S of the overlapping region RA. In the equations (9) to (10), the signs “+” and “−” are changed depending on which angle θ of the instruction vector r is in the first to fourth quadrants. For example, if the angle θ of the instruction vector r is the angle in the first quadrant (0 degree to 90 degrees), the signs in the expressions (9) to (10) are both “+” signs.
また、図10には、補正ベクトルr2と修正ベクトルr1と移動ベクトルr3との関係図が示されている。なお、図10において、“θ”は、修正ベクトルr1によって示される角度であり、指示ベクトルrによって示される角度と同様である。また、“φ”は、移動ベクトルr3によって示される角度である。図10に示すように、補正ベクトルr2と修正ベクトルr1とは、直交することから、補正ベクトルr2を(x2,y2)とし、修正ベクトルr1を(x1,y1)として乗算すると内積は0になるので、下記(11)式の関係式によって示される。
また、移動ベクトルr3(x,y)は、補正ベクトルr2と修正ベクトルr1とを加算したベクトルであるため、下記(12)式によって示される。
The movement vector r3 (x, y) is a vector obtained by adding the correction vector r2 and the correction vector r1, and is represented by the following equation (12).
ここで、補正ベクトルr2(x2,y2)は、補正ベクトル算出部167によって算出され、又、重複領域RAの面積Sは、一定であるため、補正ベクトルr2(x2,y2)と面積Sは既知の値である。よって、(12)式を(11)式に代入すると、下記(13)式が得られる。
Here, the correction vector r2 (x 2 , y 2 ) is calculated by the correction vector calculation unit 167, and since the area S of the overlapping region RA is constant, the correction vector r2 (x 2 , y 2 ) and The area S is a known value. Therefore, the following equation (13) is obtained by substituting equation (12) into equation (11).
なお、(13)式において“A”と“B”とは(14)式によって示される。
In Expression (13), “A” and “B” are expressed by Expression (14).
上記(9)乃至(10)式と、(13)乃至(14)式と、一定面積SがS=a×bで示されることから、移動ベクトルr3(x,y)が算出できる。また、移動ベクトル算出部168は、算出した移動ベクトルr3を、撮像方向指示部169に出力する。
Since the above formulas (9) to (10), (13) to (14), and the constant area S are represented by S = a × b, the movement vector r3 (x, y) can be calculated. Further, the movement
撮像方向指示部169は、取得した指示ベクトルrの方向成分に基づいて、撮像方向の移動を指示する撮像方向指示情報(指示情報)を、通信部12を介して、移動ロボット20に送信する。また、撮像方向指示部169は、撮像方向指示情報を送信する際、修正ベクトルr1に従って撮像方向を移動する第1モードと、補正ベクトルr2に従って撮像方向を移動した後に修正ベクトルr1に従って撮像方向を移動する第2モードと、移動ベクトルr3に従って撮像方向を移動する第3モードとを切り替えて、各第1乃至第3モードに対応する撮像方向指示情報を移動ロボット20に送信する。なお、第1乃至第3モードの切替は、ユーザからの指示に応じて、記憶部163に記憶される第1乃至第3モードの何れのモードが「使用」であるかに応じて切り替えられる。
The imaging
具体的に、撮像方向指示部169は、記憶部163に記憶される第1モードが「使用」である場合、修正ベクトル算出部166によって算出された修正ベクトルr1を入力する。また、撮像方向指示部169は、修正ベクトルr1に基づいて、カメラの撮像方向を移動する際の角度を示すパン・チルト角度を算出する。また、撮像方向指示部169は、算出したパン・チルト角度を含む撮像方向指示情報を、第1モードに対応する撮像方向指示情報として移動ロボット20に送信する。
Specifically, the imaging
撮像方向指示部169は、記憶部163に記憶される第2モードが「使用」である場合、修正ベクトル算出部166によって算出された修正ベクトルr1と、補正ベクトル算出部167によって算出された補正ベクトルr2とを入力する。また、撮像方向指示部169は、補正ベクトルr2に基づいて、カメラの撮像方向を移動する際の角度を示す第1パン・チルト角度を算出する。また、撮像方向指示部169は、修正ベクトルr1に基づいて、カメラの撮像方向を移動する際の角度を示す第2パン・チルト角度を算出する。また、撮像方向指示部169は、算出した第1乃至第2パン・チルト角度を含む撮像方向指示情報を、第2モードに対応する撮像方向指示情報として移動ロボット20に送信する。
When the second mode stored in the
撮像方向指示部169は、記憶部163に記憶される第3モードが「使用」である場合、移動ベクトル算出部168によって算出された移動ベクトルr3を入力する。また、撮像方向指示部169は、移動ベクトルr3に基づいて、カメラの撮像方向を移動する際の角度を示すパン・チルト角度を算出する。また、撮像方向指示部169は、算出したパン・チルト角度を含む撮像方向指示情報を、第3モードに対応する撮像方向指示情報として移動ロボット20に送信する。本実施形態において、撮像方向指示部169は、指示部を構成する。
When the third mode stored in the
(第1実施形態に係る移動ロボットの構成)
次に、移動ロボット20の構成について具体的に説明する。また、以下、本発明との関連がある部分について主に説明する。移動ロボット20は、通信部22と、カメラユニット23と、ロボット制御部24と、走行用モータ25と、各種センサ26とを備える。
(Configuration of mobile robot according to the first embodiment)
Next, the configuration of the
通信部22は、操作端末10との間で各種情報を送受信する。具体的に、通信部22は、カメラユニット23から出力された監視対象撮像画像を操作端末10に送信する。また、通信部22は、操作端末10から送信された遠隔操作コマンドや、カメラの撮像方向の移動を指示する撮像方向指示情報を受信する。
The
カメラユニット23は、床下を撮像して監視対象撮像画像を取得するカメラ231と、カメラ231のパン(水平方向の角度制御)を実行するパン用モータ232と、カメラ231のチルト(垂直方向の角度制御)を実行するチルト用モータ233と、カメラユニット23内の各種機能を制御するカメラ制御部234とを備える。また、カメラ制御部234は、通信部22において、撮像方向指示情報が受信されると、当該撮像方向指示情報に含まれるパン・チルト角度に基づいて、パン用モータ232やチルト用モータ233を制御し、カメラ231の撮像方向を移動する。なお、本実施形態において、パン用モータ232又はチルト用モータ233の少なくとも一方、又は両方は、カメラの撮像方向を制御する動作部を構成する。つまり、カメラユニット23では、パン用モータ232やチルト用モータ233によって、パン・チルトの動作が実行されることによって、カメラ231の撮像方向を移動することができる。
The
ロボット制御部24は、通信部22において、遠隔操作コマンドが受信されると、走行用モータ25を制御して、移動ロボット20の地上における位置を移動させる。また、走行用モータ25は、車輪又はクローラを駆動する駆動部であり、移動ロボット20を移動させる。なお、本実施形態では、走行用モータ25によっても動作部を構成することができる。つまり、移動ロボット20では、走行用モータ25によって移動ロボット20が移動することで、カメラ231の撮像方向を移動することができる。また、このとき、移動ロボット20では、パン用モータ232やチルト用モータ233と併用して撮像方向を移動してもよい。
When the
各種センサ26は、移動ロボット20の方位を検出する方位センサや、ロータリエンコーダなどを用いて走行距離を検出する距離検出センサなどが備えられている。
The
(床下点検システムの制御動作)
次に、床下点検システム1000の制御動作について説明する。より具体的には、操作端末10によって指示ベクトルrが入力される際の制御動作と、床下点検システム1000においてカメラ231の撮像方向を移動する際の制御動作について説明する。
(Control operation of underfloor inspection system)
Next, the control operation of the
(指示ベクトルが入力される際の制御動作)
まず、操作端末10によって指示ベクトルrが入力される際の制御動作について説明する。図11に示すように、ステップS11において、操作端末10では、表示部14が、移動ロボット20のカメラ231によって撮像された監視対象撮像画像Fを表示する。
(Control action when instruction vector is input)
First, the control operation when the instruction vector r is input by the
ステップS12において、操作端末10では、操作制御部16の制御部164が、入力部15において、ユーザによってマウスダウンが行われたか否かを判定する。なお、マウスダウンが行われなかった場合、動作を終了する。
In step S <b> 12, in the
ステップS13において、操作制御部16の制御部164が、入力部15において、マウスダウンが行われたと判定した場合、ドラッグ操作と、マウスアップが行われたことを検出する。また、マウスダウンが行われた座標を始点座標P1とし、マウスアップが行われた座標を終点座標P2として、指示ベクトルrを表示部14に表示する。なお、制御部164は、ドラッグ操作中(マウスダウン中)も、マウスダウンが行われた座標P1からユーザによって操作されているカーソルKまでのベクトルを、表示部14に表示させる。
In step S <b> 13, when the
ステップS14において、操作端末10では、入力部15が、マウスダウンが行われた座標を始点座標P1と、マウスアップが行われた座標を終点座標P2とを受け付けて、始点座標P1と終点座標P2を含む指示ベクトル情報を操作制御部16に出力する。
In step S14, in the
ステップS15において、操作制御部16の制御部164では、指示ベクトル情報を入力すると、指示ベクトル情報に含まれる始点座標P1と終点座標P2から指示ベクトルrを取得する。このようにして、操作端末10では、指示ベクトルrが取得される。
In step S15, when the instruction vector information is input, the
(カメラの撮像方向を移動する際の制御動作)
次に、図12を参照し、床下点検システム1000においてカメラ231の撮像方向を移動する際の制御動作について説明する。より、具体的には、操作端末10の操作制御部16が、カメラ231の撮像方向の移動を指示し、カメラユニット23の制御部234が、カメラ231の撮像方向を移動する際の制御動作について説明する。
(Control action when moving the imaging direction of the camera)
Next, with reference to FIG. 12, the control operation when moving the imaging direction of the
図12に示すように、ステップS101において、操作端末10の操作制御部16では、制御部164が、送受信部162を介して、入力部15から指示ベクトルrに関する指示ベクトル情報を取得する。
As illustrated in FIG. 12, in step S <b> 101, in the
ステップS102において、制御部164は、記憶部163を参照し、第3モードに「使用」が対応付けて記憶されているか否かを判定する。
In step S <b> 102, the
ステップS103において、制御部164は、第3モードに「使用」が対応付けて記憶されていると判定すると、指示ベクトル情報を、補正ベクトル算出部167と移動ベクトル算出部168とに出力する。また、補正ベクトル算出部167は、指示ベクトル情報を入力すると、指示ベクトル情報に含まれる指示ベクトルの始点座標P1と終点座標P2とを結ぶ第1直線を算出する。また、補正ベクトル算出部167は、監視対象撮像画像Fの中心(原点)を通過し、算出した第1直線と直交する第2直線を算出する。また、補正ベクトル算出部167は、第1直線と第2直線との交点P3とし、当該交点P3座標(x2,y2)を算出する。また、補正ベクトル算出部167は、移動前(現在)の監視対象撮像画像Fの原点を始点座標(0,0)とし、算出した交点P3を終点座標(x2,y2)とする補正ベクトルr2を算出する。また、補正ベクトル算出部167は、算出した補正ベクトルr2を、移動ベクトル算出部168に出力する。
In step S <b> 103, when determining that “use” is stored in association with the third mode, the
ステップS104において、移動ベクトル算出部168は、制御部164から指示ベクトル情報を入力し、指示ベクトルrを取得する。また、移動ベクトル算出部168は、補正ベクトル算出部167から補正ベクトルr2を入力する。また、移動ベクトル算出部168は、重複領域算出部165から重複領域の面積Sを取得する。また、移動ベクトル算出部168は、取得した情報に基づいて、監視対象撮像画像の中心から、補正ベクトルr2と修正ベクトルr1とを加算した移動ベクトルr3を算出する。このとき、移動ベクトル算出部168は、移動前の監視対象撮像画像と移動後の監視対象撮像画像との間に重複領域を有するように、修正ベクトルr1の長さ成分を調節し、移動後の監視対象撮像画像の中心の座標(x,y)を算出する。また、移動ベクトル算出部168は、移動前の監視対象撮像画像Fの中心の座標(0,0)を始点とし、移動後の監視対象撮像画像Fmの中心の座標(x,y)を終点とする、移動ベクトルr3(x,y)を算出する。また、移動ベクトル算出部168は、算出した移動ベクトルr3を、撮像方向指示部169に出力する。
In step S104, the movement
ステップS105において、撮像方向指示部169は、移動ベクトルr3を入力すると、当該移動ベクトルr3に基づいて、カメラ231の撮像方向を移動する際の角度を示すパン・チルト角度を算出する。また、撮像方向指示部169は、算出したパン・チルト角度を含む撮像方向指示情報を、通信部12を介して、移動ロボット20に送信する。なお、このとき送信される撮像方向指示情報は、第3モードに対応するパン・チルト角度を含む撮像方向指示情報である。
In step S105, when the imaging
ステップS106において、移動ロボット20では、カメラ制御部234が、通信部22を介して、撮像方向指示情報を受信する。また、カメラ制御部234は、撮像方向指示情報に含まれるパン・チルト角度に基づいて、パン用モータ232及びチルト用モータ233を制御し、カメラ231の撮像方向を移動する。また、カメラ制御部234は、撮像方向を移動する際、図9に示すように、移動前の監視対象撮像画像Fと移動後の監視対象撮像画像Fmaとが重複する重複領域RAを残すように撮像方向を移動する。
In step S <b> 106, in the
ステップS111において、制御部164は、第3モードに「使用」が対応付けて記憶されていないと判定すると、指示ベクトル情報を、修正ベクトル算出部166と補正ベクトル算出部167とに出力する。
In step S <b> 111, when determining that “use” is not stored in association with the third mode, the
また、修正ベクトル算出部166は、制御部164から指示ベクトル情報を受信すると、指示ベクトル情報に含まれる指示ベクトルrの始点座標P1と終点座標P2と、重複領域算出部165から重複領域の面積Sを取得する。また、修正ベクトル算出部166は、始点座標P1と終点座標P2と一定面積Sとに基づいて、移動前の監視対象撮像画像Fの中心を始点座標(0,0)とし、移動後の監視対象撮像画像Fmの中心の座標(x,y)を終点座標とする修正ベクトルr1を算出する。
Further, when the correction
ステップS112において、補正ベクトル算出部167は、制御部164から指示ベクトル情報を入力すると、補正ベクトルr2を算出する。なお、ステップS112の動作は、上述したステップS103の動作と同様であるため、ここでは説明を省略する。また、補正ベクトル算出部167は、算出した補正ベクトルr2を、撮像方向指示部169に出力する。
In step S112, the correction vector calculation unit 167 calculates the correction vector r2 when the instruction vector information is input from the
ステップS113において、撮像方向指示部169は、記憶部163を参照し、第1モードに「使用」が対応付けて記憶されているか否かを判定する。
In step S113, the imaging
ステップS114において、撮像方向指示部169は、第1モードに「使用」が対応付けて記憶されていると判定すると、修正ベクトル算出部166によって算出された修正ベクトルr1に基づいて、パン用モータ232及びチルト用モータ233を制御する際の角度を算出する。また、撮像方向指示部169は、算出したパン・チルト角度を含む撮像方向指示情報を、通信部12を介して、移動ロボット20に送信する。なお、このとき送信される撮像方向指示情報は、第1モードに対応するパン・チルト角度を含む撮像方向指示情報である。
In step S114, when the imaging
ステップS115において、移動ロボット20では、カメラ制御部234が、通信部22を介して、撮像方向指示情報を受信する。また、カメラ制御部234は、撮像方向指示情報に含まれるパン・チルト角度に基づいて、パン用モータ232及びチルト用モータ233を制御し、カメラ231の撮像方向を移動する。また、カメラ制御部234は、撮像方向を移動する際、図7に示すように、移動前の監視対象撮像画像Fと移動後の監視対象撮像画像Fmとが重複する重複領域RAを残すように撮像方向を移動する。
In
ステップS121において、撮像方向指示部169は、第1モードに「使用」が対応付けて記憶されていない判定、つまり、第2モードに「使用」が対応付けて記憶されていると判定すると、修正ベクトル算出部166によって算出された修正ベクトルr1と、補正ベクトル算出部167によって算出された補正ベクトルr2とを入力する。また、撮像方向指示部169は、補正ベクトルr2に基づいて、カメラ231の撮像方向を移動する際の角度を示す第1パン・チルト角度を算出する。また、撮像方向指示部169は、算出した第1パン・チルト角度を含む撮像方向指示情報を、移動ロボット20に送信する。
In step S121, when the imaging
ステップS122において、移動ロボット20では、カメラ制御部234が、通信部22を介して、撮像方向指示情報を受信する。また、カメラ制御部234は、撮像方向指示情報に含まれる第1パン・チルト角度に基づいて、パン用モータ232及びチルト用モータ233を制御し、カメラ231の撮像方向を移動する。
In step S <b> 122, in the
ステップS123において、また、撮像方向指示部169は、修正ベクトルr1に基づいて、カメラの撮像方向を移動する際の角度を示す第2パン・チルト角度を算出する。また、撮像方向指示部169は、算出した第2パン・チルト角度を含む撮像方向指示情報を、移動ロボット20に送信する。
In step S123, the imaging
ステップS124において、撮像方向指示部169は、算出した第2パン・チルト角度を含む撮像方向指示情報を、移動ロボット20に送信する。移動ロボット20では、カメラ制御部234が、通信部22を介して、撮像方向指示情報を受信する。また、カメラ制御部234は、撮像方向指示情報に含まれる第2パン・チルト角度に基づいて、パン用モータ232及びチルト用モータ233を制御し、カメラ231の撮像方向を移動する。なお、上述したステップS121及びS123において送信される撮像方向指示情報は、第2モードに対応するパン・チルト角度を含む撮像方向指示情報である。よって、第2モードでは、カメラ制御部234は、ステップS122及びS124の動作において、撮像方向を移動する際、図13に示すように、補正ベクトルr2に従って撮像方向を移動した後、修正ベクトルr1に従って撮像方向を移動する。
In step S <b> 124, the imaging
このように、床下点検システム1000では、撮像方向指示部169が、カメラ231の撮像方向を移動する際、第1乃至第3モードのいずれかのモードに対応する撮像方向指示情報をカメラ制御部234に送信し、カメラ制御部234が、受信した撮像方向指示情報に応じて撮像方向を移動する。なお、操作端末10は、コンピュータとして機能し、インストールされているプログラム(カメラ制御プログラム)によって、通信部12、表示部14、入力部15、記憶部163、制御部164、重複領域算出部165、修正ベクトル算出部166、補正ベクトル算出部167、移動ベクトル算出部168、撮像方向指示部169の各種機能を実行させてもよい。
As described above, in the
(第1実施形態に係る床下点検システムの作用・効果)
本実施形態に係る床下点検システム1000によれば、監視対象撮像画像Fを参照するユーザによって、監視対象撮像画像F上の任意の方向に入力された指示ベクトルrに基づいて、カメラ231の撮像方向を移動する。ここで、従来技術では、カメラ231の撮像方向を移動させる場合、ユーザは、画面上の固定位置に設けられた箇所(例えば、中央に設けられたアイコン)に、所定の操作(例えば、アイコンのドラッグ)を行わなければカメラ231の撮像方向を移動させることができなかった。この場合、監視対象物画像に沿って、カメラ231の撮像方向をより正確に移動させる際の操作性が悪かった。しかし、本発明に係る床下点検システム1000では、ユーザが監視対象撮像画像上の任意箇所に指示ベクトルrを入力して、撮像方向を移動させる。つまり、かかる床下点検システム1000では、表示されている監視対象物画像上に直接沿った位置に指示ベクトルrを入力することが可能になり、カメラ231の撮像方向をより正確に、かつ容易に撮像方向を移動させることができる。よって、かかる床下点検システム1000によれば、監視対象物画像の一部を含む監視対象撮像画像を取得する場合に、監視対象物に沿ってカメラの撮像方向をより正確に移動させつつ、操作性を向上させることができる。
(Operation and effect of the underfloor inspection system according to the first embodiment)
According to the
更に、かかる床下点検システム1000によれば、移動前の監視対象撮像画像Fと移動後の監視対象撮像画像Fmとに一定面積Sの重複領域RAが残るように撮像方向を移動するので、重複領域を有する二つの画像を効率よく取得することができる。
Furthermore, according to the
また、本実施形態に係る床下点検システム1000では、指示ベクトルrが入力された監視対象撮像画像F上の位置に向かう補正ベクトルr2を算出し、補正ベクトルr2と修正ベクトルr1とを加算した移動ベクトルr3に基づいて、撮像方向を移動ことができる。つまり、本実施形態に係る床下点検システム1000では、ユーザは、監視を望む監視対象物画像上にあわせて指示ベクトルrを入力すれば、当該指示ベクトルrの入力位置に向かう補正ベクトルr2も用いて、撮像方向を移動するので、監視対象物画像上の位置により近づくように、撮像方向を移動することができる。
Further, in the
また、本実施形態に係る床下点検システム1000では、撮像方向を移動する際、移動方法の異なる第1乃至第3モードを、ユーザからの指示に応じて切替ることができる。また、本実施形態に係る床下点検システム1000では、第1モードにおいて、修正ベクトルr1に沿って、カメラ231の撮像方向を移動する。この第1モードは、現在の監視対象撮像画像上の適切な位置に監視対象物画像が含まれている場合に有効である。例えば、ユーザは、床下天井に接する基礎壁を監視対象物とし、当該基礎壁の一部を含む監視対象撮像画像を取得したい場合、図14に示すように、現在(移動前)の監視対象撮像画像Fに、画面上の床下天井と基礎壁とが接するラインに沿って指示ベクトルrを入力するだけで、移動後の監視対象撮像画像Fmに向けて、カメラ231の撮像方向を移動することができる。
Moreover, in the
また、本実施形態に係る床下点検システム1000では、第2モードにおいて、補正ベクトルr2に従って撮像方向を移動した後、修正ベクトルr1に従って撮像方向を移動するので、ユーザが、監視を望む監視対象物画像にあわせて指示ベクトルrを入力するだけで、監視対象物画像をより確実に含む監視対象物撮像画像を取得することができる。この第2モードは、移動前(現在)の監視対象撮像画像F上の適切な位置に監視対象物画像が含まれていない場合に有効である。例えば、ユーザは、ケーブルを監視対象物として、監視対象撮像画像を取得したい場合、図15に示すように、移動前(現在)の監視対象撮像画像Fの右上などの端に監視対象物画像が含まれる場合がある。かかる場合、ケーブルに沿って指示ベクトルrを入力するだけで、監視対象撮像画像F´を経由してケーブルを監視対象撮像画像の中央に含めた後、移動後の監視対象撮像画像Fmaに向けて、カメラ231の撮像方向を移動することができる。
Further, in the
また、本実施形態に係る床下点検システム1000では、第3モードにおいて、移動ベクトルr3に従って、撮像方向を移動する。この第3モードは、移動前(現在)の監視対象撮像画像Fに含まれる監視対象物画像の先を、より早く監視したい場合に有効である。例えば、ユーザは、ケーブルを監視対象物として、監視対象撮像画像を取得したい場合、図15に示すように、ケーブルに沿って指示ベクトルrを入力するだけで、移動ベクトルr3によって示される移動後の監視対象撮像画像Fmaに向けて、カメラ231の撮像方向をより早く移動することができる。
In the
このように、本実施形態に係る床下点検システム1000では、移動前(現在)の監視対象撮像画像F上の監視対象物画像の位置に応じて、第1乃至第3モードを切替えて、移動後の監視対象撮像画像Fm(又はFma)に向けてカメラ231の撮像方向を移動することができる。
As described above, in the
[第2実施形態]
本発明の第2実施形態について、第1実施形態との相違点に着目して説明する。本実施形態では、操作端末10において、操作制御部16の重複領域算出部165の構成を除き、第1実施形態と同様である。よって、本実施形態に係る重複領域算出部165の構成について説明する。
[Second Embodiment]
The second embodiment of the present invention will be described by paying attention to differences from the first embodiment. In the present embodiment, the
(本発明の第2実施形態に係る操作制御部の構成)
上述した第1実施形態では、重複領域算出部165が、重複領域の面積Sを一定面積Sとして算出していたが、本実施形態に係る重複領域算出部165は、指示ベクトルrの長さ成分に基づいて、重複領域RAの面積Sを算出する。具体的に、重複領域算出部165は、制御部164から指示ベクトル情報を受信すると、当該指示ベクトル情報に含まれる指示ベクトルrの始点座標P1と終点座標P2とに基づいて、指示ベクトルrの長さ成分Dを算出する。また、重複領域算出部165は、算出した長さ成分Dが大きいほど重複領域RAの面積Sが小さくなるように算出する。
(Configuration of Operation Control Unit According to Second Embodiment of the Present Invention)
In the first embodiment described above, the overlapping
ここで、監視対象撮像画像の水平方向の間隔をHとし、垂直方向の間隔をVとすると、表示部14に表示される監視対象撮像画像F上において、指示ベクトルrが最も長くなる長さ成分Dは、下記の(15)式によって示される。また、最も大きい重複領域RAの面積Sは、(16)式で示される。
また、重複領域算出部165は、長さ成分Dに応じて、重複領域RAの面積Sを、下記の(17)式に基づいて、算出する。また、重複領域算出部165は、(17)式に基づいて算出した面積Sを、修正ベクトル算出部166に出力する。
Further, the overlapping
修正ベクトル算出部166は、重複領域算出部165によって算出された重複領域RAの面積Sに応じて、修正ベクトルr1の長さ成分を調整する。
The correction
ここで、図16(a)には、指示ベクトルrの長さ成分がDLの場合の重複領域RAと、修正ベクトルr1とが示されている。また、図16(b)には、指示ベクトルrが、長さ成分DLよりも小さい長さ成分がDSの場合の重複領域RAと、修正ベクトルr1とが示されている。 Here, FIG. 16A shows the overlapping area RA and the correction vector r1 when the length component of the instruction vector r is DL. FIG. 16B shows an overlapping area RA and a correction vector r1 when the instruction vector r is DS whose length component is smaller than the length component DL.
図16(a)乃至(b)に示すように、重複領域算出部165は、指示ベクトルrの長さ成分Dが長いほど、重複領域RAの面積Sが小さくなるように算出する。これによって、修正ベクトル算出部166は、指示ベクトルrの長さ成分Dに応じた修正ベクトルr1を算出する。
As shown in FIGS. 16A and 16B, the overlapping
(第2実施形態に係る床下点検システムの作用・効果)
本実施形態に係る床下点検システム1000によれば、操作制御部16の重複領域算出部165では、ユーザによって入力された指示ベクトルrの長さ成分Dに応じて重複領域RAの面積Sを算出する。また、修正ベクトル算出部166は、当該重複領域RAの面積Sに応じて、修正ベクトルr1の長さ成分を算出する。つまり、かかる床下点検システム1000によれば、ユーザは、指示ベクトルrを入力する際、例えば、指示ベクトルrの長さ成分Dを加減する等の操作を行うだけで、移動前の監視対象撮像画像Fと移動後の監視対象撮像画像Fmとが重複する重複領域の面積Sを調節して撮像方向を移動させることができる。
(Operation and effect of the underfloor inspection system according to the second embodiment)
According to the
(第2実施形態に係る変形例)
第2実施形態に係る変形例について、上述した実施形態との相違点に着目して説明する。上述した第2実施形態では、修正ベクトル算出部166が、重複領域算出部165によって算出された面積Sに応じて、長さ成分を調整した修正ベクトルr1を算出するように構成されていたが、本実施形態では、移動ベクトル算出部168が、重複領域算出部165によって算出された面積Sに応じて、長さ成分を調整した修正ベクトルr1を算出すると共に、当該修正ベクトルr1に基づいて、移動ベクトルr3を算出する。
(Modification according to the second embodiment)
A modification according to the second embodiment will be described by focusing on the differences from the above-described embodiment. In the second embodiment described above, the correction
具体的に、移動ベクトル算出部168は、重複領域算出部165によって上記(17)式に基づいて算出された面積Sを入力する。また、移動ベクトル算出部168は、入力した面積Sと、(9)乃至(10)式と、(13)乃至(14)式とに基づいて、移動ベクトルr3(x,y)を算出する。
Specifically, the movement
このように、本実施形態に係る床下点検システム1000によれば、重複領域算出部165が、指示ベクトルrの長さ成分Dに応じて重複領域RAの面積Sを算出し、移動ベクトル算出部168が、算出された面積Sに応じて、長さ成分を調整した移動ベクトルr3を算出する。よって、本実施形態に係る床下点検システム1000においても、上述した第2実施形態と同様の効果を奏することができる。
Thus, according to the
[第3実施形態]
以下に、本発明の第3実施形態に係る床下点検システム1000構成について、上述した実施形態との相違点に着目して説明する。ここで、本発明の第3実施形態に係る床下点検システム1000では、上述した重複領域算出部165と修正ベクトル算出部166との構成を除き、上述した実施形態と同様の構成である。よって、以下に重複領域算出部165と修正ベクトル算出部166との構成について説明する。
[Third Embodiment]
Hereinafter, the configuration of the
上述した第2実施形態では、重複領域算出部165は、指示ベクトルrの長さ成分Dに応じて、重複領域RAの面積Sを算出するように構成されていたが、本実施形態に係る重複領域算出部165は、面積を算出する代わりに、指示ベクトルrに基づいて、移動前の監視対象撮像画像F内に収まる第1楕円の形状と、移動後の監視対象撮像画像Fm内に収まる第2楕円の形状とを特定する係数を算出する。なお、かかる係数については、詳細を後述する。また、修正ベクトル算出部166は、重複領域算出部165によって算出された係数に基づいて、図17(a)に示すように、第1楕円C1Lの形状と、当該第1楕円C1Lに外接するように定められた第2楕円C2Lの形状とを算出する。また、修正ベクトル算出部166は、算出した第1楕円C1Lと第2楕円C2Lとに基づいて、指示ベクトルrの長さ成分を調整した修正ベクトルr1を算出する。これにより、移動前の監視対象撮像画像Fと移動後の監視対象撮像画像Fmには、重複領域RAが形成される。
In the second embodiment described above, the overlapping
以下に、本実施形態に係る重複領域算出部165と修正ベクトル算出部166との構成について具体的に説明する。なお、本実施形態において、第1楕円C1Lと第2楕円C2Lとは、同じ形状の楕円とする。また、第1楕円C1Lの中心と移動前の監視対象撮像画像Fの中心とは一致し、第2楕円C2Lの中心と移動後の監視対象撮像画像Fmの中心とは一致することとする。
Below, the structure of the overlap area |
この場合、移動前の監視対象撮像画像Fの中心を原点座標(0,0)とし、移動後の監視対象撮像画像Fmの中心座標を(x,y)とすると、移動後の監視対象撮像画像Fmの中心の座標 (x,y)は、下記の(18)式によって示される。なお、下記の(18)式において、“a”は第1楕円C1Lと第2楕円C2Lとの長軸半径を示し、“b”は第1楕円C1Lと第2楕円C2Lとの短軸半径を示す。
また、本実施形態では、上記の(18)式において、“a”及び“b”は下記の(19)式によって示される。(19)式において、“k”は、指示ベクトルrの長さ成分Dに応じて変更される係数であり、重複領域算出部165は、係数“k”を下記に示す(20)式により算出する。
In this embodiment, in the above equation (18), “a” and “b” are represented by the following equation (19). In equation (19), “k” is a coefficient that is changed according to the length component D of the instruction vector r, and the overlapping
具体的に、重複領域算出部165は、制御部164から指示ベクトル情報を受信すると、当該指示ベクトル情報に含まれる指示ベクトルrの始点座標P1と終点座標P2とに基づいて、指示ベクトルrの長さ成分Dを算出する。また、重複領域算出部165は、算出した長さ成分Dを(20)式に代入して係数“k”を算出する。なお、係数“k”は、長さ成分Dが大きいほど大きくなる値であり、0<k<1の範囲内の値で算出される。つまり、重複領域算出部165は、指示ベクトルrの長さ成分Dの長さが大きいほど、係数“k”が大きくなるように算出する。
ここで、算出した係数“k”は、(19)式に代入することで、第1楕円C1L及び第2楕円C2Lの長軸半径“a”と、第1楕円C1L及び第2楕円C2Lの短軸半径“b”とが求められる。つまり、重複領域算出部165は、指示ベクトルrの長さ成分Dに応じて、第1楕円C1L及び第2楕円C2Lの長軸半径“a”と短軸半径“b”を算出するための係数“k”を算出する。また、重複領域算出部165は、算出した係数“k”を修正ベクトル算出部166に出力する。
Here, the calculated coefficient “k” is substituted into the equation (19), so that the major axis radius “a” of the first ellipse C1L and the second ellipse C2L and the short ellipse C1L and the second ellipse C2L are short. A shaft radius “b” is determined. That is, the overlapping
修正ベクトル算出部166は、制御部164から指示ベクトル情報を入力すると共に、重複領域算出部165から係数“k”を入力すると、移動後の監視対象撮像画像Fmの中心の座標 (x,y)を、算出する。ここで、移動後の監視対象撮像画像Fmの中心座標(x,y)は、上述した(18)乃至(19)式に基づいて、下記(21)式によって示される。なお、(21)式において、角度θは、指示ベクトルrの方向成分を示す角度である。よって、角度θは、指示ベクトル情報に含まれる始点座標P1と終点座標P2から、修正ベクトル算出部166によって算出される。また、(21)式において、“+”と“−”の符号は、指示ベクトルrの角度θが第1乃至第4象限の角度に応じて、変更する。例えば、指示ベクトルrの角度θを第1象限の角度(0度〜90度)とすると、(21)式において、符号は“x”,“y”共に“+”の符号となる。
ここで、図17(a)には、指示ベクトルrの長さ成分がDLの場合の重複領域RAと、修正ベクトルr1とが示されている。また、図17(b)には、指示ベクトルrが、長さ成分DLよりも小さい長さ成分DSの場合の重複領域RAと、修正ベクトルr1とが示されている。
Here, FIG. 17A shows the overlapping area RA and the correction vector r1 when the length component of the instruction vector r is DL. FIG. 17B shows an overlapping area RA and a correction vector r1 when the instruction vector r is a length component DS smaller than the length component DL.
図17(a)乃至(b)に示すように、重複領域算出部165は、指示ベクトルrの長さ成分Dが長いほど、第1楕円C1Lと第2楕円C2Lの長軸半径“a”及び短軸半径“b”が大きくなるように係数“k”を算出するので、重複領域RAの面積Sが小さくなる。これによって、修正ベクトル算出部166では、長軸半径“a”及び短軸半径“b”の大きさが調整された第1楕円C1Lと第2楕円C2Lから、移動後の監視対象撮像画像Fmの中心の座標 (x,y)を算出し、指示ベクトルrの長さ成分Dに応じた修正ベクトルr1を算出する。
As shown in FIGS. 17A and 17B, the overlapping
このようにして、本実施形態に係る床下点検システム1000では、修正ベクトル算出部166は、重複領域算出部165から係数“k”を入力すると、撮像方向の移動前の監視対象撮像画像内に収まる第1楕円C1Lの形状と、撮像方向の移動後の監視対象撮像画像内に収まる第2楕円C2Lの形状とを算出する。また、修正ベクトル算出部166は、第1楕円C1Lと、当該第1楕円C1Lに外接するように定められた第2楕円C2Lとに基づいて、指示ベクトルrの長さ成分を調整した修正ベクトルr2を算出する。よって、本実施形態に係る床下点検システム1000においても、上述した第2実施形態と同様の効果を奏することができる。つまり、ユーザは、指示ベクトルrを入力する際、例えば、指示ベクトルrの長さ成分Dを加減する等の操作を行うだけで、移動前の監視対象撮像画像Fと移動後の監視対象撮像画像Fmとが重複する重複領域RAの面積Sを調節して撮像方向を移動させることができる。
In this way, in the
なお、重複領域算出部165は、指示ベクトルrの長さ成分Dの大きさに関わらず、一定の係数“k(例えば、0.8)”を予め記憶し、当該係数“k”を、修正ベクトル算出部166に出力してもよい。また、修正ベクトル算出部166では、一定の係数“k”に基づいて、長軸半径“a”及び短軸半径“b”を算出して、算出した長軸半径“a”及び短軸半径“b”の第1楕円C1Lと第2楕円C2Lから、移動後の監視対象撮像画像Fmの中心の座標(x,y)を算出してもよい。つまり、修正ベクトル算出部166は、一定の係数“k”に基づいて、一定の長軸半径“a”及び一定の短軸半径“b”の第1楕円C1Lと第2楕円C2Lを算出して、修正ベクトルr1を算出してもよい。
Note that the overlapping
(第3実施形態に係る変形例)
第3実施形態に係る変形例について、上述した実施形態との相違点に着目して説明する。上述した第3実施形態では、修正ベクトル算出部166が、重複領域算出部165によって算出された係数“k”に応じて、長さ成分を調整した修正ベクトルr1を算出するように構成されていたが、本実施形態では、移動ベクトル算出部168が、重複領域算出部165によって算出された係数“k”に応じて、長さ成分を調整した修正ベクトルr1を算出すると共に、当該修正ベクトルr1に基づいて、移動ベクトルr3を算出する。
(Modification according to the third embodiment)
A modified example according to the third embodiment will be described by focusing on differences from the above-described embodiment. In the third embodiment described above, the correction
具体的に、移動ベクトル算出部168は、重複領域算出部165から係数“k”を入力すると、(18)式に基づいて、第1楕円C1Lと第2楕円C2Lの長軸半径“a”及び短軸半径“b”を算出する。また、移動ベクトル算出部168は、算出した長軸半径“a”及び短軸半径“b”と、補正ベクトル算出部167から入力した補正ベクトルr2(x2,y2)とに基づいて、(11)乃至(14)式と、(18)式とから、移動ベクトルr3(x,y)を算出する。なお、このとき、移動ベクトル算出部168は、補正ベクトルr2(x2,y2)の値に応じて、下記(I)乃至(II)の条件に基づいて、移動ベクトルr3(x,y)を算出する。
Specifically, when the coefficient “k” is input from the overlapping
(I)x2≠0、y2≠0の時
例えば、移動ベクトル算出部168は、補正ベクトルr2(x2,y2)が何れも0(ゼロ)でない場合、(22)式に基づいて“x”の値を算出した後、(13)乃至(14)式に基づいて、“y”の値を算出する。
(II)x2=0、y2≠0の時
また、移動ベクトル算出部168は、補正ベクトルr2(x2,y2)において、“x2”が0(ゼロ)である場合、(23)式に基づいて、移動ベクトルr3(x,y)を算出する。
(II) When x 2 = 0 and y 2 ≠ 0 In addition, the movement
(III)x2≠0、y2=0の時
また、移動ベクトル算出部168は、補正ベクトルr2(x2,y2)において、“y2”が0(ゼロ)である場合、(24)式に基づいて、移動ベクトルr3(x,y)を算出する。
(III) When x 2 ≠ 0 and y 2 = 0 Also, the movement
(IV)x2=0、y2=0の時
また、移動ベクトル算出部168は、補正ベクトルr2(x2,y2)において、“x2”と“y2”とがいずれも0(ゼロ)である場合、(21)式に基づいて、移動ベクトルr3(x,y)を算出する。つまり、補正ベクトルr2が0(ゼロ)であるため、移動ベクトルr3と修正ベクトルr1とは等しくなる。
(IV) When x 2 = 0 and y 2 = 0 In addition, the movement
このように、本実施形態に係る床下点検システム1000によれば、重複領域算出部165が、指示ベクトルrの長さ成分Dに応じて係数“k”を算出し、移動ベクトル算出部168が、算出された係数“k”に応じて、長さ成分を調整した移動ベクトルr3を算出する。よって、本実施形態に係る床下点検システム1000においても、上述した第3実施形態と同様の効果を奏することができる。
Thus, according to the
なお、重複領域算出部165は、指示ベクトルrの長さ成分Dの大きさに関わらず、一定の係数“k(例えば、0.8)”を予め記憶し、当該係数“k”を、移動ベクトル算出部168に出力してもよい。また、移動ベクトル算出部168では、一定の係数“k”に基づいて、長軸半径“a”及び短軸半径“b”を算出して、算出した長軸半径“a”及び短軸半径“b”の第1楕円C1Lと第2楕円C2Lから、移動後の監視対象撮像画像Fmaの中心の座標(x,y)を算出してもよい。つまり、移動ベクトル算出部168は、一定の係数“k”に基づいて、一定の長軸半径“a”及び一定の短軸半径“b”の第1楕円C1Lと第2楕円C2Lを算出して、移動ベクトルr3を算出してもよい。
Note that the overlapping
[第4実施形態]
本発明の第4実施形態に係る床下点検システム1000について、上述した実施形態との相違点に着目して説明する。本実施形態に係る床下点検システム1000では、カメラ制御部234が、第1実施形態に係る操作制御部16に備えられている各種機能を具備する。
[Fourth Embodiment]
An
具体的に、操作端末10の入力部15は、指示ベクトルrが入力されると、監視対象撮像画像Fの中心を原点として、始点座標P1の座標値と終点座標P2の座標値とを含む指示ベクトル情報を、操作制御部16に出力する。また、入力部15は、第1乃至第3モードのいずれのモードを用いるかについて、ユーザから指示を受け付けて、当該モードを示すモード情報を操作制御部16に出力する。
Specifically, when the instruction vector r is input, the
操作制御部16は、入力部15から出力された指示ベクトル情報やモード情報を、通信部12を介して、移動ロボット20に送信する。
The
(本発明の第4実施形態に係るカメラ制御部の構成)
本実施形態に係るカメラ制御部234は、画像取得部2341と、送受信部2342と、記憶部2343と、制御部2344と、重複領域算出部2345と、修正ベクトル算出部2346と、補正ベクトル算出部2347と、移動ベクトル算出部2348と、撮像方向指示部2349とを備える。
(Configuration of Camera Control Unit According to Fourth Embodiment of the Present Invention)
The
画像取得部2341は、カメラ231によって撮像された監視対象物画像の一部を含む監視対象撮像画像を取得する。また、取得した監視対象物画像は、送受信部2342に出力する。
The
送受信部2342は、撮像画像取得部2341によって取得された監視対象撮像画像を通信部22に出力する。また、送受信部2342は、ユーザによって監視対象撮像画像上に入力された始点座標値と終点座標値とを含む指示ベクトル情報を、通信部22を介して、操作端末10から受け付ける。また、送受信部2342は、受信した指示ベクトル情報に含まれる始点座標P1と終点座標P2とに基づいて、始点座標P1から終点座標P2に向かう指示ベクトルrを取得する。また、送受信部2342は、指示ベクトル情報を制御部2344に出力する。本実施形態において、送受信部2342は、受付部とベクトル取得部とを構成する。
The transmission /
記憶部2343は、第1実施形態に係る記憶部163と同様の構成である。よって、ここでは説明を省略する。
The
制御部2344は、カメラ制御部234内の各種機能を制御する。また、制御部2344は、送受信部2342において指示ベクトル情報が入力されて、指示ベクトルrを取得すると、記憶部2343を参照し、第1乃至第3モードの何れのモードが「使用」であるか否かを判定する。つまり、制御部2344は、第1実施形態に係る制御部234と同様に、記憶部2343を参照した際、第1モードが「使用」である場合、指示ベクトル情報を、修正ベクトル算出部2346に出力し、第2モードが「使用」である場合、指示ベクトル情報を、修正ベクトル算出部2346と補正ベクトル算出部2347とに出力し、第3モードが「使用」である場合、指示ベクトル情報を、補正ベクトル算出部2347と移動ベクトル算出部2348とに出力する。
The
また、本実施形態において、重複領域算出部2345と、修正ベクトル算出部2346と、補正ベクトル算出部2347と、移動ベクトル算出部2348と、撮像方向指示部2349との各種構成は、それぞれが、第1実施形態に係る重複領域算出部165と、修正ベクトル算出部166と、補正ベクトル算出部167と、移動ベクトル算出部168との構成と同様である。よって、ここでは説明を省略する。
In the present embodiment, each of the various configurations of the overlapping
撮像方向指示部2349は、パン用モータ232とチルト用モータ233と接続し、カメラ231の撮像方向を移動する。また、撮像方向指示部2349は、カメラ231の撮像方向を移動する際、移動前の監視対象撮像画像と移動後の監視対象撮像画像とが重複する重複領域を残すように撮像方向を移動する。本実施形態において、撮像方向指示部2349は、動作部を構成する。
The imaging
また、撮像方向指示部2349は、撮像方向指示情報を送信する際、修正ベクトルr1に従って撮像方向を移動する第1モードと、補正ベクトルr2に従って撮像方向を移動した後に修正ベクトルr1に従って撮像方向を移動する第2モードと、移動ベクトルr3に従って撮像方向を移動する第3モードとを切り替えて、各第1乃至第3モードに対応する撮像方向指示情報を移動ロボット20に送信する。なお、第1乃至第3モードの切替は、ユーザからの指示に応じて、記憶部2343に記憶される第1乃至第3モードの何れのモードが「使用」であるかに応じて切り替えられる。
In addition, when transmitting imaging direction instruction information, the imaging
具体的に、撮像方向指示部2349は、記憶部2343を参照し、記憶部2343に記憶される第1モードが「使用」である場合、修正ベクトル算出部2346によって算出された修正ベクトルr1を入力する。また、撮像方向指示部2349は、修正ベクトルr1に基づいて、カメラの撮像方向を移動する際の角度を示すパン・チルト角度を算出する。また、撮像方向指示部2349は、算出したパン・チルト角度に基づいて、パン用モータ232とチルト用モータ233を制御し、カメラ231の撮像方向を移動する。
Specifically, the imaging
撮像方向指示部2349は、記憶部2343に記憶される第2モードが「使用」である場合、修正ベクトル算出部2346によって算出された修正ベクトルr1と、修正ベクトル算出部2346によって算出された補正ベクトルr2とを入力する。また、撮像方向指示部2349は、補正ベクトルr2に基づいて、カメラの撮像方向を移動する際の角度を示す第1パン・チルト角度を算出する。また、撮像方向指示部2349は、修正ベクトルr1に基づいて、カメラの撮像方向を移動する際の角度を示す第2パン・チルト角度を算出する。また、撮像方向指示部2349は、第1パン・チルト角度に基づいて、パン用モータ232とチルト用モータ233を制御して、カメラ231の撮像方向を移動する。この後、撮像方向指示部2349は、第2パン・チルト角度に基づいて、パン用モータ232とチルト用モータ233を制御して、カメラ231の撮像方向を移動する。
When the second mode stored in the
撮像方向指示部2349は、記憶部2343に記憶される第3モードが「使用」である場合、修正ベクトル算出部2346によって算出された移動ベクトルr3を入力する。また、撮像方向指示部2349は、移動ベクトルr3に基づいて、カメラの撮像方向を移動する際の角度を示すパン・チルト角度を算出する。また、撮像方向指示部2349は、算出したパン・チルト角度に基づいて、パン用モータ232とチルト用モータ233を制御し、カメラ231の撮像方向を移動する。
When the third mode stored in the
(第4実施形態に係る床下点検システムの作用・効果)
本実施形態に係る床下点検システム1000によれば、移動ロボット20のカメラ制御部234において、指示ベクトルrを取得し、当該指示ベクトルrに基づいて、修正ベクトル算出部2346が、修正ベクトルr1を算出する。また、補正ベクトル算出部2347が、補正ベクトルr2を算出する。また、移動ベクトル算出部2348が、移動ベクトルr3を算出する。また、撮像方向指示部2349が、第1乃至第3モードに応じて、修正ベクトルr1、補正ベクトルr2、移動ベクトルr3を用いて、カメラ231の撮像方向を移動する際の角度を示すパン・チルト角度を算出し、算出したパン・チルト角度に基づいて、パン用モータ232とチルト用モータ233を制御し、カメラ231の撮像方向を移動する。
(Operation and effect of the underfloor inspection system according to the fourth embodiment)
According to the
つまり、本実施形態に係る床下点検システム1000では、第1実施形態に係る床下点検システム1000における操作制御部16の機能をカメラ制御部234で実行させることができる。よって、本実施形態に係る床下点検システム1000においても、第1実施形態と同様の効果を奏することができる。
That is, in the
[第5実施形態]
本発明の第5実施形態について、上述した実施形態との相違点に着目して説明する。本実施形態に係る床下点検システム1000では、撮像方向指示部169の構成を除き、上述した第1実施形態に係る床下点検システム1000と同様である。よって、以下に、撮像方向指示部169の構成について説明する。
[Fifth Embodiment]
The fifth embodiment of the present invention will be described by paying attention to differences from the above-described embodiments. The
(本発明の第5実施形態に係る撮像方向指示部の構成)
本実施形態に係る撮像方向指示部169は、図12のステップS106、ステップS115、ステップS124において、修正ベクトルr1、補正ベクトルr2、移動ベクトルr3に基づいて、移動後の監視対象撮像画像Fmに撮像方向を移動する際、予め記憶する所定の移動量に達した場合、移動ロボット20に位置の移動を指示する。ここで、所定の移動量とは、パン・チルトの限界角度であってもよいし、カメラ231が、撮像方向を移動する際に、移動ロボット20の構造上死角となるパン・チルトの角度であってもよい。なお、本実施形態では、所定の移動量がパンの限界角度である場合を例に挙げて説明する。また、ここでは、現状のカメラ231の限界角度が角度Φであり、撮像方向指示部169が、カメラ231の撮像方向を角度ω(ω=Φ+α)だけ移動させる場合を例に挙げて説明する。
(Configuration of the imaging direction instruction unit according to the fifth embodiment of the present invention)
In step S106, step S115, and step S124 of FIG. 12, the imaging
具体的に、本実施形態に係る撮像方向指示部169は、移動量がパンの限界角度Φに達した場合、ロボット制御部24に、移動ロボット20の方向をパンの限界角度Φまで旋回移動するように指示する。この指示を受けたロボット制御部24は、走行用モータ25を制御して、移動ロボット20の方向を限界角度Φまで旋回移動する。同時に、撮像方向指示部169は、移動ロボット20のカメラ制御部234に対して、カメラ231の撮像方向を、旋回移動した角度Φだけ戻すように指示する、つまり、撮像方向指示部169は、カメラ制御部234に対して、カメラ231の撮像方向を角度−Φだけ移動するように指示する。この指示を受けたカメラ制御部234は、パン用モータ232を制御し、カメラ231の撮像方向を角度−Φだけ移動する。
Specifically, when the movement amount reaches the panning limit angle Φ, the imaging
上記動作が完了すると、撮像方向指示部169は、カメラ制御部234に不足分の移動量(以下、不足角度α)だけ撮像方向を移動するように指示する。この指示を受けたカメラ制御部234は、パン用モータ232を制御し、カメラ231の撮像方向を不足角度αだけ移動する。
When the above operation is completed, the imaging
(第5実施形態に係る床下点検システム1000の動作)
上記の構成の床下点検システム1000の動作について、図20乃至22を参照して説明する。なお、ここでは、カメラ231の撮像方向を移動する際、パンの移動量が限界角度に達した場合を例に挙げて説明する。
(Operation of the
The operation of the
ステップS201において、床下点検システム1000では、撮像方向指示部169が、修正ベクトルr1、補正ベクトルr2、移動ベクトルr3に基づいて算出したパン・チルト角度を含む撮像方向指示情報を、カメラ制御部234に送信する。また、カメラ制御部234は、受信した撮像方向指示情報に含まれるパン・チルト角度に基づいて、パン用モータ232を制御し、カメラ231の撮像方向を移動する。例えば、図21(a)乃至(b)に示すように、移動ロボット20では、カメラ231の撮像方向が角度Φ分だけ移動される。
In step S201, in the
ステップS202において、撮像方向指示部169は、パンの移動量が限界角度以上であるか否かを判定する。
In step S202, the imaging
ステップS203において、撮像方向指示部169は、パンの移動量が限界角度以上でないと判定した場合、引き続きパン用モータ232を制御し、カメラ231の撮像方向を移動する。
In step S203, when the imaging
ステップS204において、撮像方向指示部169は、パンの移動量が限界角度(例えば、角度Φ)以上であると判定した場合、現在のパンの移動量(角度Φ)を記憶すると共に、不足している不足角度αを算出する。
In step S204, when the imaging
ステップS205において、撮像方向指示部169は、ロボット制御部24に対して、移動ロボット20の方向を角度Φまで旋回移動するように指示する。この指示を受けたロボット制御部24は、走行用モータ25を制御して、図22(a)に示すように、移動ロボット20を角度Φまで旋回移動させる。同時に、撮像方向指示部169は、旋回移動した角度Φだけカメラ231の撮像方向を戻すように、角度−Φを示すパン角度を含む撮像方向指示情報をカメラ制御部234に送信する。また、カメラ制御部234は、受信した撮像方向指示情報に基づいて、パン用モータ232を制御して、カメラ231の撮像方向を角度−Φのパン角度分だけ移動する。つまり、図22(a)に示すように、移動ロボット20は、角度Φまで旋回移動するが、カメラ231の撮像方向(絶対的な方位)は移動しないように制御する。
In step S205, the imaging
ステップS206において、撮像方向指示部169は、パンの不足角度αを示すパン角度を含む撮像方向指示情報をカメラ制御部234に送信する。また、カメラ制御部234は、撮像方向指示情報を受信すると、図22(b)に示すように、当該撮像方向指示情報に含まれる不足角度αを示すパン角度分だけ、カメラ231の撮像方向を移動する。
In step S <b> 206, the imaging
このようにして、床下点検システム1000では、撮像方向指示部169が、カメラ231の撮像方向を角度ω(ω=Φ+α)だけ移動させる。なお、上述した例では、撮像方向指示部169は、パンの移動量が限界角度(例えば、角度Φ)以上であると判定した場合、ロボット制御部24に対して、移動ロボット20を限界角度Φだけ旋回移動するように指示していたが、少なくとも不足角度α以上の角度だけ旋回移動するように指示すればよい。
In this way, in the
(第5実施形態に係る床下点検システムの作用・効果)
本実施形態に係る床下点検システム1000によれば、撮像方向指示部169は、移動量(例えば、パンの移動量)が所定の移動量を上回った場合、ロボット制御部24に対して、移動ロボット20を所定の移動量まで旋回移動するように指示し、同時に、カメラ制御部234に対して、カメラ231の撮像方向を旋回移動した分だけに戻すように指示する。また、撮像方向指示部169は、移動ロボット20の旋回移動が完了すると、不足している移動量だけ、カメラ231の撮像方向を引き続き移動する。よって、かかる床下点検システム1000では、例えば、カメラ231の撮像方向の移動量が所定の移動量(例えば、限界角度)に達した場合であっても、移動ロボットを旋回移動させて、引き続き撮像方向を移動させることができる。よって、かかる床下点検システム1000では、修正ベクトルr1、補正ベクトルr2、移動ベクトルr3に基づいて算出した移動量(角度)に対して、カメラ231の撮像方向をより確実に移動させることができる。
(Operation and effect of the underfloor inspection system according to the fifth embodiment)
According to the
(第5実施形態に係る変形例)
第5実施形態に係る変形例について、上述した実施形態との相違点に着目して説明する。上述した実施形態では、撮像方向指示部169は、カメラ231の撮像方向が限界角度Φに達してから、ロボット制御部24に対して、移動ロボット20の旋回移動を行うように指示していたが、本実施形態に係る撮像方向指示部169は、撮像方向を移動するパン・チルト角度ωを算出した際、当該角度ωが予め記憶する所定の移動量に達すると事前に認識可能である場合、所定の移動量に達することを考慮して、カメラ制御部234に対するカメラ231の撮像方向の移動と、ロボット制御部24に対する移動ロボット20の旋回移動とを指示する。
(Modification according to the fifth embodiment)
A modified example according to the fifth embodiment will be described by focusing on differences from the above-described embodiment. In the above-described embodiment, the imaging
具体的に、撮像方向指示部169は、パン・チルト角度ωを算出した際に、算出したパン・チルト角度ωが限界角度Φ以上であるか否かを判定する。また、撮像方向指示部169は、算出したパン・チルト角度ωが限界角度Φ以上であると判定した場合、不足角度αよりも大きく、限界角度Φよりも小さいパン角度β1を算出する。
Specifically, when calculating the pan / tilt angle ω, the imaging
そして、撮像方向指示部169は、ロボット制御部24に対して、移動ロボット20の方向を角度β1まで旋回移動するように指示する。この指示を受けたロボット制御部24は、走行用モータ25を制御して、移動ロボット20を角度β1まで旋回移動させる。同時に、撮像方向指示部169は、旋回移動した角度β1分だけカメラ231の撮像方向を戻すように、角度−β1を示すパン角度を含む撮像方向指示情報をカメラ制御部234に送信する。また、カメラ制御部234は、受信した撮像方向指示情報に基づいて、パン用モータ232を制御して、カメラ231の撮像方向を、移動ロボット20が旋回移動した角度−β1のパン角度分だけ移動する。
Then, the imaging
この後、撮像方向指示部169は、角度ωまでの残りのパン角度β2(β2=ω−β1)だけ撮像方向を移動するように、パン角度β2を含む撮像方向指示情報を、カメラ制御部234に送信する。また、カメラ制御部234は、受信した撮像方向指示情報に含まれる角度β2を示すパン角度分だけ、カメラ231の撮像方向を移動する。
Thereafter, the imaging
このように、本実施形態に係る撮像方向指示部169においても、上述した第5実施形態と同様の効果を奏することができる。
As described above, the imaging
(その他の実施形態)
上述したように、本発明の一実施形態を通じて本発明の内容を開示したが、この開示の一部をなす論述及び図面は、本発明を限定するものであると理解すべきではない。この開示から当業者には様々な代替実施の形態が明らかとなろう。
(Other embodiments)
As described above, the content of the present invention has been disclosed through one embodiment of the present invention. However, it should not be understood that the description and drawings constituting a part of this disclosure limit the present invention. From this disclosure, various alternative embodiments will be apparent to those skilled in the art.
例えば、上述した実施形態において、補正ベクトル算出部2347は、指示ベクトルr上の第1直線と、第1直線と直交する第2直線との交点P3の座標(x2,y2)を補正ベクトルr2の終点として算出するように構成されていたが、指示ベクトルrの始点P1や終点P2等を補正ベクトルr2の終点として算出するように構成されていてもよい。 For example, in the above-described embodiment, the correction vector calculation unit 2347 calculates the coordinates (x 2 , y 2 ) of the intersection point P3 between the first straight line on the instruction vector r and the second straight line orthogonal to the first straight line. Although it is configured to calculate as the end point of r2, it may be configured to calculate the start point P1, end point P2, etc. of the instruction vector r as the end point of the correction vector r2.
また、上述した実施形態において、操作端末10の記憶部13は、修正ベクトルr1と補正ベクトルr2と移動ベクトルr3を記憶するように構成されていてもよい。例えば、これらのベクトルr1乃至r3は、撮像軌跡の記録となる。そして、前回点検時の撮像軌跡として、記憶しておいたベクトルr1乃至r3を用いて、移動ロボット20を、前回と同じ位置に配置し、記憶しておいたベクトルr1乃至r3を用いて監視対象物を撮像すれば、前回とほぼ同様のアングルで監視対象物画像含を含む監視対象撮像画像を取得することができる。つまり、前回と次回とにおいて撮像した監視対象物画像を比較する際に、点検内容(例えば、クラックや水漏れ)の変化の比較作業等を容易に実施することができる。
In the above-described embodiment, the
また、上述した実施形態では、床下点検システム1000を一例に挙げて説明したが、これに限定されるものではない。例えば、所定の場所(ビル内や市街地)を監視する監視カメラを備える監視システムなどに適用してもよい。つまり、本発明は、特定の監視対象物を撮像するカメラ制御を実行する様々なシステムにおいて適用可能である。
Moreover, although embodiment mentioned above demonstrated and demonstrated the
また、各実施形態の構成及び各変更例の構成もそれぞれ組み合わせることが可能である。また、各実施形態及び各変更例の作用及び効果は、本発明から生じる最も好適な作用及び効果を列挙したに過ぎず、本発明による作用及び効果は、各実施形態及び各変更例に記載されたものに限定されるものではない。このように、本発明は、ここでは記載していない様々な実施の形態などを含むことは勿論である。したがって、本発明の技術的範囲は、上述の説明から妥当な特許請求の範囲に係る発明特定事項によってのみ定められるものである。 In addition, the configuration of each embodiment and the configuration of each modified example can be combined. In addition, the operation and effect of each embodiment and each modification are merely a list of the most preferable operations and effects resulting from the present invention, and the operation and effect according to the present invention are described in each embodiment and each modification. It is not limited to the ones. As described above, the present invention naturally includes various embodiments that are not described herein. Therefore, the technical scope of the present invention is defined only by the invention specifying matters according to the scope of claims reasonable from the above description.
1000…床下点検システム、10…操作端末、12…通信部、13…記憶部、14…表示部、15…入力部、16…操作制御部、20…移動ロボット、22…通信部、23…カメラユニット、24…ロボット制御部、25…走行用モータ、26…種センサ、162…送受信部、163…記憶部、164…制御部、165…重複領域算出部、166…修正ベクトル算出部、167…補正ベクトル算出部、168…移動ベクトル算出部、169…撮像方向指示部、231…カメラ、232…パン用モータ、233…チルト用モータ、234…カメラ制御部、1000…床下点検システム、2341…画像取得部、2342…送受信部、2343…記憶部、2344…制御部、2345…重複領域算出部、2346…修正ベクトル算出部、2347…補正ベクトル算出部、2348…移動ベクトル算出部、2349…撮像方向指示部、C1L…第1楕円、C2L…第2楕円、F…監視対象撮像画像、Fm…監視対象撮像画像、Fma…監視対象撮像画像、K…カーソル、P1…始点座標、P2…始点座標、RA…重複領域、S11乃至S15…ステップ、S101乃至S124…ステップ、S201乃至S205…ステップ、r…指示ベクトル、r1…修正ベクトル、r2…補正ベクトル、r3…移動ベクトル、 1000: Underfloor inspection system, 10: Operation terminal, 12: Communication unit, 13 ... Storage unit, 14 ... Display unit, 15 ... Input unit, 16 ... Operation control unit, 20 ... Mobile robot, 22 ... Communication unit, 23 ... Camera Unit: 24 ... Robot control unit, 25 ... Running motor, 26 ... Species sensor, 162 ... Transmission / reception unit, 163 ... Storage unit, 164 ... Control unit, 165 ... Overlapping area calculation unit, 166 ... Modification vector calculation unit, 167 ... Correction vector calculation unit, 168 ... movement vector calculation unit, 169 ... imaging direction instruction unit, 231 ... camera, 232 ... pan motor, 233 ... tilt motor, 234 ... camera control unit, 1000 ... underfloor inspection system, 2341 ... image Acquisition unit, 2342 ... transmission / reception unit, 2343 ... storage unit, 2344 ... control unit, 2345 ... overlapping region calculation unit, 2346 ... correction vector calculation unit, 234 ... correction vector calculation unit, 2348 ... movement vector calculation unit, 2349 ... imaging direction instruction unit, C1L ... first ellipse, C2L ... second ellipse, F ... monitoring target captured image, Fm ... monitoring target captured image, Fma ... monitoring target Captured image, K ... cursor, P1 ... start point coordinate, P2 ... start point coordinate, RA ... overlapping area, S11 to S15 ... step, S101 to S124 ... step, S201 to S205 ... step, r ... instruction vector, r1 ... correction vector, r2 ... correction vector, r3 ... movement vector,
Claims (9)
前記カメラによって撮像され、監視対象物画像の一部を含む監視対象撮像画像を取得する画像取得部と、
前記画像取得部によって取得された前記監視対象撮像画像を表示する表示部と、
前記監視対象撮像画像上に入力された始点座標の値と終点座標の値とを受け付ける受付部と、
前記受付部によって受け付けられた前記始点座標の値と前記終点座標の値とに基づいて、前記始点座標の値から前記終点座標の値に向かう指示ベクトルを取得するベクトル取得部と、
前記ベクトル取得部によって取得された前記指示ベクトルの方向成分に基づいて、前記撮像方向を移動する動作部とを備える
ことを特徴とするカメラ制御システム。 A camera control system for controlling the imaging direction of a camera,
An image acquisition unit that acquires a monitoring target captured image that is captured by the camera and includes a part of the monitoring target image;
A display unit for displaying the monitoring target captured image acquired by the image acquisition unit;
A reception unit that receives a value of a start point coordinate and a value of an end point coordinate input on the monitoring target captured image;
A vector acquisition unit that acquires an instruction vector from the value of the start point coordinate toward the value of the end point coordinate based on the value of the start point coordinate and the value of the end point coordinate received by the reception unit;
A camera control system comprising: an operation unit that moves the imaging direction based on a direction component of the instruction vector acquired by the vector acquisition unit.
ことを特徴とする請求項1に記載のカメラ制御システム。 The operation unit moves the imaging direction so as to leave an overlapping region where the monitoring target captured image before the movement and the monitored target captured image after the movement overlap when moving in the imaging direction. The camera control system according to claim 1.
前記監視対象撮像画像の中心から、前記指示ベクトル上の点に向かう補正ベクトルを算出する補正ベクトル算出部とを更に備え、
前記動作部は、前記補正ベクトルと前記修正ベクトルとを加算した移動ベクトルに基づいて、前記撮像方向を移動する
ことを特徴とする請求項1又は2に記載のカメラ制御システム。 A correction vector calculation unit for calculating a correction vector obtained by adjusting the length component of the instruction vector;
A correction vector calculation unit that calculates a correction vector from the center of the monitoring target captured image toward a point on the instruction vector;
The camera control system according to claim 1, wherein the operation unit moves the imaging direction based on a movement vector obtained by adding the correction vector and the correction vector.
前記監視対象撮像画像の中心から、前記指示ベクトル上の点に向かう補正ベクトルを算出する補正ベクトル算出部とを更に備え、
前記動作部は、前記補正ベクトルに従って前記撮像方向を移動した後、前記修正ベクトルに従って前記撮像方向を移動する
ことを特徴とする請求項1又は2に記載のカメラ制御システム。 A correction vector calculation unit for calculating a correction vector obtained by adjusting the length component of the instruction vector;
A correction vector calculation unit that calculates a correction vector from the center of the monitoring target captured image toward a point on the instruction vector;
The camera control system according to claim 1, wherein the operation unit moves the imaging direction according to the correction vector after moving the imaging direction according to the correction vector.
前記動作部は、算出された前記修正ベクトルに基づいて、前記撮像方向を移動する
ことを特徴とする請求項2に記載のカメラ制御システム。 A correction vector calculation unit that calculates a correction vector obtained by adjusting a length component of the instruction vector based on a direction component of the instruction vector and a constant area of the overlapping region;
The camera control system according to claim 2, wherein the operation unit moves the imaging direction based on the calculated correction vector.
前記動作部は、算出された前記修正ベクトルに基づいて、前記撮像方向を移動する
ことを特徴とする請求項1又は2に記載のカメラ制御システム。 The shape of the first ellipse that fits in the monitored target captured image before movement in the imaging direction and the shape of the second ellipse that fits in the monitored target captured image after movement in the imaging direction are calculated, and the first ellipse And a correction vector calculation unit for calculating a correction vector in which the length component of the instruction vector is adjusted based on the second ellipse determined to circumscribe the first ellipse,
The camera control system according to claim 1, wherein the operation unit moves the imaging direction based on the calculated correction vector.
ことを特徴とする請求項1乃至6のいずれか1項に記載のカメラ制御システム。 The camera control system according to claim 1, wherein the operation unit is a drive unit that is provided in a camera control robot on which the camera is mounted and that drives a wheel or a crawler.
前記カメラによって撮像され、監視対象物画像の一部を含む監視対象撮像画像を取得する画像取得部と、
前記画像取得部によって取得された前記監視対象撮像画像を表示する表示部と、
前記監視対象撮像画像上に入力された始点座標の値と終点座標の値とを受け付ける受付部と、
前記受付部によって受け付けられた前記始点座標の値と前記終点座標の値とに基づいて、前記始点座標の値から前記終点座標の値に向かう指示ベクトルを取得するベクトル取得部と、
前記ベクトル取得部によって取得された前記指示ベクトルの方向成分に基づいて、前記撮像方向の移動を指示する指示情報を前記カメラ制御ロボットに送信する指示部とを備える
ことを特徴とするカメラ制御装置。 A camera control apparatus that communicates with a camera control robot that controls an imaging direction of a camera and instructs movement of the imaging direction of the camera,
An image acquisition unit that acquires a monitoring target captured image that is captured by the camera and includes a part of the monitoring target image;
A display unit for displaying the monitoring target captured image acquired by the image acquisition unit;
A reception unit that receives a value of a start point coordinate and a value of an end point coordinate input on the monitoring target captured image;
A vector acquisition unit that acquires an instruction vector from the value of the start point coordinate toward the value of the end point coordinate based on the value of the start point coordinate and the value of the end point coordinate received by the reception unit;
A camera control apparatus comprising: an instruction unit that transmits instruction information for instructing movement in the imaging direction to the camera control robot based on a direction component of the instruction vector acquired by the vector acquisition unit.
前記カメラによって撮像され、監視対象物画像の一部を含む監視対象撮像画像を取得する画像取得ステップと、
前記画像取得部によって取得された前記監視対象撮像画像を表示する表示ステップと、
前記監視対象撮像画像上に入力された始点座標の値と終点座標の値とを受け付ける受付ステップと、
前記受付部によって受け付けられた前記始点座標の値と前記終点座標値とに基づいて、前記始点座標の値から前記終点座標の値に向かう指示ベクトルを取得するベクトル取得ステップと、
前記ベクトル取得部によって取得された前記指示ベクトルの方向成分に基づいて、前記撮像方向の移動を指示する指示情報を前記カメラ制御ロボットに送信する指示ステップとして動作させる
ことを特徴とするカメラ制御プログラム。 A computer that communicates with a camera control robot that controls the imaging direction of the camera, and that operates as a camera control device that instructs movement of the imaging direction of the camera.
An image acquisition step of acquiring a monitoring target captured image including a part of the monitoring target image captured by the camera; and
A display step for displaying the monitoring target captured image acquired by the image acquisition unit;
A reception step of receiving a value of a start point coordinate and a value of an end point coordinate input on the monitoring target captured image;
A vector acquisition step of acquiring an instruction vector from the value of the start point coordinate toward the value of the end point coordinate based on the value of the start point coordinate and the end point coordinate value received by the reception unit;
A camera control program that operates as an instruction step for transmitting instruction information for instructing movement in the imaging direction to the camera control robot based on a direction component of the instruction vector acquired by the vector acquisition unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007173407A JP2009016956A (en) | 2007-06-29 | 2007-06-29 | Camera control system, camera control apparatus and camera control program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007173407A JP2009016956A (en) | 2007-06-29 | 2007-06-29 | Camera control system, camera control apparatus and camera control program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009016956A true JP2009016956A (en) | 2009-01-22 |
Family
ID=40357369
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007173407A Pending JP2009016956A (en) | 2007-06-29 | 2007-06-29 | Camera control system, camera control apparatus and camera control program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009016956A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015507394A (en) * | 2011-12-06 | 2015-03-05 | アルカテル−ルーセント | Spatial bookmark |
WO2017056943A1 (en) * | 2015-09-30 | 2017-04-06 | 富士フイルム株式会社 | Imaging system, angle-of-view adjustment method, and angle-of-view adjustment program |
CN108664889A (en) * | 2017-03-28 | 2018-10-16 | 卡西欧计算机株式会社 | Object detection device, object object detecting method and recording medium |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS62226786A (en) * | 1986-03-28 | 1987-10-05 | Toshiba Corp | Supervisory equipment |
JPH10200807A (en) * | 1997-01-14 | 1998-07-31 | Hitachi Ltd | Camera control method using graphical user interface |
JP2000115754A (en) * | 1998-10-08 | 2000-04-21 | Canon Inc | Remote controller and remote control method |
JP2004125773A (en) * | 2003-06-23 | 2004-04-22 | Sumiden Asahi Industries Ltd | Self-running machine for checking/inspection and method of checking/inspection by self-running machine |
JP2007088584A (en) * | 2005-09-20 | 2007-04-05 | Sony Corp | Monitor camera system, remote control monitor apparatus, control method, and control program thereof |
-
2007
- 2007-06-29 JP JP2007173407A patent/JP2009016956A/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS62226786A (en) * | 1986-03-28 | 1987-10-05 | Toshiba Corp | Supervisory equipment |
JPH10200807A (en) * | 1997-01-14 | 1998-07-31 | Hitachi Ltd | Camera control method using graphical user interface |
JP2000115754A (en) * | 1998-10-08 | 2000-04-21 | Canon Inc | Remote controller and remote control method |
JP2004125773A (en) * | 2003-06-23 | 2004-04-22 | Sumiden Asahi Industries Ltd | Self-running machine for checking/inspection and method of checking/inspection by self-running machine |
JP2007088584A (en) * | 2005-09-20 | 2007-04-05 | Sony Corp | Monitor camera system, remote control monitor apparatus, control method, and control program thereof |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015507394A (en) * | 2011-12-06 | 2015-03-05 | アルカテル−ルーセント | Spatial bookmark |
WO2017056943A1 (en) * | 2015-09-30 | 2017-04-06 | 富士フイルム株式会社 | Imaging system, angle-of-view adjustment method, and angle-of-view adjustment program |
CN108141533A (en) * | 2015-09-30 | 2018-06-08 | 富士胶片株式会社 | Camera system, visual angle regulating method and visual angle adjustment programme |
US10356301B2 (en) | 2015-09-30 | 2019-07-16 | Fujifilm Corporation | Imaging system, angle-of-view adjustment method, and angle-of-view adjustment program |
CN108141533B (en) * | 2015-09-30 | 2020-07-21 | 富士胶片株式会社 | Imaging system, angle-of-view adjustment method, and non-transitory tangible storage medium |
CN108664889A (en) * | 2017-03-28 | 2018-10-16 | 卡西欧计算机株式会社 | Object detection device, object object detecting method and recording medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4954006B2 (en) | Crack width measuring system, operating device, crack width measuring method, and crack width measuring program | |
US9667923B2 (en) | Camera attitude detection device and work region line display device | |
JP6412474B2 (en) | Crack width measurement system | |
JP2008055569A (en) | Inspection robot | |
JPH11149315A (en) | Robot control system | |
JP2002325708A (en) | Robot cleaner, robot cleaning system and method for controlling the same | |
JPWO2003102706A1 (en) | Remote operation robot and robot self-position identification method | |
JP6445151B2 (en) | Robot apparatus and movement control method of robot apparatus | |
JP2017054475A (en) | Teleoperation device, method and program | |
CN102561700A (en) | Mechanical arm control system, method and engineering machinery | |
JP4802012B2 (en) | Camera control apparatus and camera control method | |
JP2014063411A (en) | Remote control system, control method, and program | |
JP2009016956A (en) | Camera control system, camera control apparatus and camera control program | |
JP2018147158A (en) | Control method of unmanned mobile body | |
JP4640191B2 (en) | Surveillance camera system and surveillance camera direction control method | |
CA3205194A1 (en) | Pipeline inspection device | |
JP5512261B2 (en) | Ceiling monitoring robot system | |
JP2009175903A (en) | Mobile object teaching system | |
JP2001158599A (en) | Positioning device for boom for high lift work | |
JP2007016403A (en) | Camera controller of work machine | |
JP2008077514A (en) | Mobile robot and remote operation system | |
JP2014106576A (en) | Control method for unmanned mobile body | |
JP2009294713A (en) | Checking system, controller, checking method, and control program | |
JPH09146633A (en) | Method and system for guiding robot | |
WO2022264556A1 (en) | Method for controlling work assistance system, and program for controlling work assistance system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100215 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20111109 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20111115 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20120306 |