JPH11213157A - Camera mounted mobile object - Google Patents

Camera mounted mobile object

Info

Publication number
JPH11213157A
JPH11213157A JP10016566A JP1656698A JPH11213157A JP H11213157 A JPH11213157 A JP H11213157A JP 10016566 A JP10016566 A JP 10016566A JP 1656698 A JP1656698 A JP 1656698A JP H11213157 A JPH11213157 A JP H11213157A
Authority
JP
Japan
Prior art keywords
moving
unit
time
imaging
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP10016566A
Other languages
Japanese (ja)
Inventor
Nobukazu Kawagoe
宣和 川越
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minolta Co Ltd filed Critical Minolta Co Ltd
Priority to JP10016566A priority Critical patent/JPH11213157A/en
Publication of JPH11213157A publication Critical patent/JPH11213157A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Image Analysis (AREA)
  • Manipulator (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To place a camera so that its image pickup part comes at the same position and in the same direction against environment at different time even during move when an image processing is performed by picking up an image of the environment in which not only a moving object but a still object exists against the environment in a mobile object on which the camera is mounted. SOLUTION: A position of a CCD camera 1 against the environment is fixed by providing a single-axis robot 2 on a moving part 3 and moving the CCD camera 1 on the moving part 3 according to the move of the moving part 3. The moving object is extracted by using an image of the CCD camera 1 which is still against the environment and positional relation between a feature point and the traveling object in the environment is calculated by using an extraction result of the moving object and the image of the CCD camera at other time.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明はカメラを搭載した
移動体に関し、特に自律移動ロボットなどのカメラを搭
載した移動体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a mobile body equipped with a camera, and more particularly to a mobile body equipped with a camera such as an autonomous mobile robot.

【0002】[0002]

【従来の技術】従来より自律移動ロボットは、ロボット
を移動させる移動部と、ロボットの視覚機能の役割を果
たすカメラを搭載しているのが通常である。このカメラ
で撮像した画像を処理する技術として次のものが知られ
ている。
2. Description of the Related Art Conventionally, an autonomous mobile robot usually includes a moving section for moving the robot and a camera which plays a role of visual function of the robot. The following are known techniques for processing an image captured by this camera.

【0003】(1) 動物体を抽出する方法として、環
境に対して静止したカメラで撮像した動画像のフレーム
間の時間差分を用いる方法が知られている。これは静止
物体は時間的に変化しないためフレーム間の時間差分を
とると輝度がゼロになるが、動物体の周辺では時間差分
がゼロにならないことを利用して動物体領域を抽出する
ものである。ただし、カメラが環境に対して静止してい
ることが条件となる。
(1) As a method for extracting a moving object, a method using a time difference between frames of a moving image captured by a camera stationary with respect to an environment is known. This is to extract the moving object area by using the fact that the time difference between frames takes zero because the stationary object does not change over time, but the time difference does not become zero around the moving object. is there. However, the condition is that the camera is stationary with respect to the environment.

【0004】また、(2)環境の特徴点と移動体との位
置関係を得る手法として、オプティカルフローと移動体
の移動情報とから環境の特徴点の位置を演算する手法や
移動立体視がある。オプティカルフローとは、対象画像
中の局部的な動きをいう。オプティカルフローの代表的
な抽出法としては画像間の特徴の対応を調べる特徴照合
法や時空間における明度の勾配から移動量を求める勾配
法が知られている。特徴照合法は、時間tの画像f
(x,y,t)から特徴を求め、もう1つの画像f
(x,y,t+Δt)から対応する部分を求める。対応
をとるためには、特徴を含む近傍領域の画像の相関を用
いたり、特徴の方向、コントラストなどの属性の類似性
を用いたりする。この方法は、重要な部分の動きを得る
ことができるという長所がある。特に動画像の圧縮の標
準であるMPEGのブロックマッチングとして知られて
いる。
[0004] (2) As a technique for obtaining a positional relationship between an environmental feature point and a moving body, there is a technique of calculating the position of an environmental feature point from an optical flow and movement information of a moving body, and a moving stereoscopic view. . The optical flow refers to a local motion in the target image. As typical extraction methods of the optical flow, a feature matching method for examining a correspondence between features between images and a gradient method for obtaining a movement amount from a brightness gradient in spatiotemporal space are known. The feature matching method uses the image f at time t.
A feature is obtained from (x, y, t) and another image f
A corresponding part is obtained from (x, y, t + Δt). In order to take correspondence, correlation between images of a neighboring region including a feature is used, or similarity of attributes such as a direction of a feature and contrast is used. This method has the advantage that the movement of an important part can be obtained. In particular, it is known as MPEG block matching, which is a standard for compressing moving images.

【0005】移動立体視は、A点とB点を経由して移動
する移動体上のカメラでA点で撮影した画像とB点で撮
影した画像との間で特徴点の対応づけを行なうことによ
り、特徴点の位置を三角測量を用いて演算する手法であ
る。ただし特徴点が静止していなければ正しい値は求め
られない。
In moving stereoscopic vision, a feature point is associated between an image photographed at a point A and an image photographed at a point B by a camera on a moving body moving through the points A and B. Is a method of calculating the position of a feature point using triangulation. However, correct values cannot be obtained unless the feature points are stationary.

【0006】また、(3)並進運動する観測系からの障
害物検出をComplex Logarithmic Mapping (CLM)と
いう極座標変換を用いて行なう試みが南カリフォルニア
大学でされている(文献:オプトロニクス社「先端画像
テクノロジー」p.66〜67)。
(3) At the University of Southern California, an attempt has been made to detect obstacles from a translating observation system by using polar coordinate transformation called Complex Logarithmic Mapping (CLM). Pp. 66-67).

【0007】さらに、(4)カメラの手振れ防止技術が
8ミリビデオカメラなどで実用化されている。
Further, (4) camera shake prevention technology has been put to practical use in 8-mm video cameras and the like.

【0008】[0008]

【発明が解決しようとする課題】しかしながら、移動体
にカメラを固定して搭載したのでは、カメラは移動体と
ともに移動するのでカメラを環境に対して静止した状態
に保つことはできず、移動体を停止させるしか方法はな
かった。したがって上述の(1)移動体抽出方法を用い
るには、移動体を停止させることが必要であった。
However, if a camera is fixedly mounted on a moving body, the camera moves with the moving body, so that the camera cannot be kept stationary with respect to the environment. There was no other way but to stop. Therefore, in order to use the above-mentioned (1) mobile object extraction method, it was necessary to stop the mobile object.

【0009】また、上述の(2)環境の特徴点と移動体
との位置関係を得る手法のうちオプティカルフローを用
いる場合には、環境画像中に静止物体のみが存在する場
合は有効であるが、環境画像中に静止物体と動物体の2
つがある場合には、オプティカルフローのセグメンテー
ション(分割)が必要となる。フローのセグメンテーシ
ョンには、シーンが複数の平面で近似されるという仮定
を用いることが多い。動物体が画面上で大きな部分を占
めていなければ、すべてが静止しているとみなしてカメ
ラとの相対運動と3次元構造を求め、その運動からフロ
ーを予測し、予測と異なるフローをもつ領域を動物体の
領域として抽出する。このフローのセグメンテーション
は、計算負荷が大きくなる欠点がある。また、移動立体
視を用いる場合には、環境の特徴点が静止していなけれ
ば正しい値が求められないといった欠点がある。したが
って環境画像中から静止物体を予め抽出する必要があっ
た。
[0009] In addition, when optical flow is used in (2) the method of obtaining the positional relationship between the feature points of the environment and the moving object, it is effective when only a stationary object is present in the environment image. , A static object and a moving object in the environmental image
If there is one, optical flow segmentation (division) is required. Flow segmentation often uses the assumption that a scene is approximated by multiple planes. If the moving object does not occupy a large area on the screen, it is assumed that everything is stationary and the relative motion with the camera and the three-dimensional structure are obtained, and the flow is predicted from the motion, and the region having a flow different from the prediction is calculated. Is extracted as a region of a moving object. This flow segmentation has the disadvantage that the computational load increases. In addition, when using the moving stereoscopic vision, there is a disadvantage that a correct value cannot be obtained unless the feature points of the environment are stationary. Therefore, it is necessary to extract a stationary object from the environment image in advance.

【0010】また上述の(3)並進運動する観測系から
の障害物を検出する方法は、画像をCLM画像へ変換す
る際に極座標変換と対数変換処理が必要なので、演算負
荷が大きいとの欠点がある。
The above-mentioned method (3) of detecting an obstacle from a translationally moving observation system requires polar coordinate conversion and logarithmic conversion when an image is converted into a CLM image, so that the calculation load is large. There is.

【0011】さらに、上述の(4)カメラの手振れ防止
技術は、カメラの姿勢変化を補正するものであり、カメ
ラの位置変化を補正しない。
Further, the above-mentioned camera shake preventing technique (4) corrects a change in the attitude of the camera, and does not correct a change in the position of the camera.

【0012】これらから移動体に搭載したカメラが移動
体とともに移動する場合には、カメラを環境に対して静
止した位置に維持することができないので、環境画像中
の物体が静止物体なのか動物体なのか判断できないか、
判断できたとしても計算負荷が大きくなる。たとえば、
移動体が移動中にカメラで得られる動画像は、画像全体
が動いており、実際には静止している壁やドアなどと動
いている人物などとの識別が困難となる。
[0012] When the camera mounted on the moving body moves together with the moving body, the camera cannot be maintained at a position that is stationary with respect to the environment. Can't judge it,
Even if it can be determined, the calculation load increases. For example,
The whole moving image obtained by the camera while the moving body is moving is moving, and it is actually difficult to distinguish a stationary wall or door from a moving person.

【0013】[0013]

【課題を解決するための手段】本発明は上述の課題を解
決すべくなされたものであり、移動中においても異なる
時刻に撮像部を環境に対して同じ位置および方向に置く
カメラ搭載移動体を提供することである。
SUMMARY OF THE INVENTION The present invention has been made in order to solve the above-mentioned problems, and has a camera-mounted moving body in which an imaging unit is placed in the same position and direction with respect to the environment at different times even during movement. To provide.

【0014】この発明の他の目的は、移動中においても
移動体の移動制御とは独立して撮像部を環境に対して同
じ位置および方向に置くように制御するカメラ搭載移動
体を提供することである。
It is another object of the present invention to provide a camera-mounted moving body that controls an image pickup unit to be positioned at the same position and direction with respect to the environment independently of movement control of the moving body even during movement. It is.

【0015】この発明のさらに他の目的は、異なる時刻
に撮像部を環境に対して同じ位置および方向に置き、別
の異なる時刻に撮像部を環境に対して異なる位置に置く
カメラ搭載移動体を提供することである。
Still another object of the present invention is to provide a camera-equipped mobile body in which the image pickup unit is placed at the same position and direction with respect to the environment at different times and the image pickup unit is placed at different positions with respect to the environment at different times. To provide.

【0016】この発明のさらに他の目的は、移動中に撮
像した環境画像内に静止物体だけでなく動物体が存在す
る場合でも、動物体の抽出が容易にできるとともに、移
動体と環境内の特徴点との位置関係を正確に求めるカメ
ラ搭載移動体を提供することである。
Still another object of the present invention is to facilitate the extraction of a moving object even when a moving object as well as a stationary object is present in an environmental image taken while moving, and to provide a method for extracting the moving object and the environment. An object of the present invention is to provide a camera-equipped mobile body that accurately determines a positional relationship with a feature point.

【0017】この発明のさらに他の目的は、カメラ搭載
移動体が移動する間継続して、または断続的に移動体と
環境内の特徴点との位置関係を正確かつ容易に求めるカ
メラ搭載移動体を提供することである。
Still another object of the present invention is to continuously or intermittently or continuously determine the positional relationship between a moving object and a feature point in an environment while the moving object is moving. It is to provide.

【0018】この発明のさらに他の目的は、移動中にお
ける撮像画像の品質を向上させるカメラ搭載移動体を提
供することである。
Still another object of the present invention is to provide a camera-mounted moving body that improves the quality of a captured image during movement.

【0019】この発明のある局面に従うと、移動部と、
移動部に取付けられた撮像部移動手段と、撮像部移動手
段に保持された撮像部と、移動部が移動する速度を検知
する検知手段と、検知手段の出力に応じて撮像部の環境
に対する位置および方向が第1の時刻と第2の時刻とで
同じになるように撮像部移動手段を制御する制御手段と
を備える。
According to one aspect of the present invention, a moving unit;
An imaging unit moving unit attached to the moving unit; an imaging unit held by the imaging unit moving unit; a detection unit that detects a speed at which the moving unit moves; and a position of the imaging unit with respect to the environment according to an output of the detection unit. And a control unit for controlling the imaging unit moving unit such that the direction is the same at the first time and the second time.

【0020】この発明に従うと、移動中においても異な
る時刻に撮像部を環境に対して同じ位置および方向に置
くカメラ搭載移動体を提供することができる。
According to the present invention, it is possible to provide a camera-mounted moving body in which the imaging unit is located at the same position and in the same direction with respect to the environment at different times even during movement.

【0021】この発明の他の局面に従うと、移動部と、
移動部に取付けられた撮像部移動手段と、撮像部移動手
段に保持された撮像部と、撮像部の移動速度を検知する
検知手段と、検知手段の出力に応じて撮像部の環境に対
する位置および方向が第1の時刻と第2の時刻とで同じ
になるように撮像部移動手段を制御する制御手段とを備
える。
According to another aspect of the present invention, a moving unit;
An imaging unit moving unit attached to the moving unit; an imaging unit held by the imaging unit moving unit; a detection unit that detects a moving speed of the imaging unit; and a position of the imaging unit with respect to the environment according to an output of the detection unit. A control unit that controls the imaging unit moving unit so that the direction is the same at the first time and the second time.

【0022】この発明に従うと、カメラ搭載移動体の移
動制御とは独立して撮像部を環境に対して同じ位置およ
び方向に置くように制御するカメラ搭載移動体を提供す
ることができる。
According to the present invention, it is possible to provide a camera-mounted moving body that controls the imaging unit to be placed at the same position and direction with respect to the environment independently of the movement control of the camera-mounted moving body.

【0023】さらに好ましくは、カメラ搭載移動体の制
御手段は、第1の時刻と第2の時刻とで撮像部を環境に
対して同じ位置および方向に置くために、撮像部移動手
段を制御する第1の制御と、第1の時刻と第3の時刻と
で撮像部を環境に対して異なる位置に置くために、撮像
部移動手段を制御する第2の制御を行なう。
More preferably, the control means of the camera-mounted moving body controls the image pickup unit moving means so that the image pickup unit is placed at the same position and direction with respect to the environment at the first time and the second time. The first control and the second control for controlling the imaging unit moving means are performed so that the imaging unit is located at different positions with respect to the environment at the first time and the third time.

【0024】この発明に従うと、第1の制御で異なる時
刻に撮像部を環境に対して同じ位置および方向に置き、
第2の制御で異なる時刻に撮像部を環境に対して異なる
位置に置くカメラ搭載移動体を提供することができる。
According to the present invention, the imaging unit is placed at the same position and direction with respect to the environment at different times by the first control,
With the second control, it is possible to provide a camera-mounted moving body that positions the imaging unit at different times with respect to the environment at different times.

【0025】さらに好ましくはカメラ搭載移動体はさら
に、撮像部で撮像された画像を処理する画像処理部を有
し、画像処理部は、第1の制御で得られた画像を用いて
環境内に動物体を抽出する第1の画像処理を行ない、第
1の画像処理の結果と第2の制御で得られた画像を用い
て移動体と環境内の特徴点との位置関係を求める第2の
画像処理を行なう。
More preferably, the camera-mounted moving body further has an image processing section for processing an image picked up by the image pickup section, and the image processing section uses the image obtained by the first control to enter the environment. A first image processing for extracting a moving object is performed, and a second relation for obtaining a positional relationship between a moving object and a feature point in an environment using a result of the first image processing and an image obtained by the second control. Perform image processing.

【0026】この発明に従うと、カメラ搭載移動体の移
動中に撮像した環境画像内に、静止物体だけでなく動物
体が存在する場合でも、動物体の抽出が容易になるとと
もに、移動体と環境内の特徴点との位置関係を正確に求
めるカメラ搭載移動体を提供することができる。
According to the present invention, even in the case where not only a stationary object but also a moving object is present in the environmental image taken while the moving object with the camera is moving, the moving object can be easily extracted and the moving object and the environment can be easily extracted. It is possible to provide a camera-equipped mobile body that accurately determines a positional relationship with a feature point in the camera.

【0027】さらに好ましくは、カメラ搭載移動体の制
御手段は、第1の制御と第2の制御を連続して繰返して
行なう。
[0027] More preferably, the control means of the camera-mounted moving body performs the first control and the second control continuously and repeatedly.

【0028】この発明に従うと、カメラ搭載移動体が移
動する間継続的に移動体と環境内の特徴点との位置関係
を正確かつ容易に求めるカメラ搭載移動体を提供するこ
とができる。
According to the present invention, it is possible to provide a camera-mounted mobile body that can accurately and easily determine the positional relationship between the mobile body and characteristic points in the environment while the camera-mounted mobile body moves.

【0029】この発明の他の局面に従うと、カメラ搭載
移動体は、少なくとも2つの撮像部と、撮像部をそれぞ
れ保持し、移動させることができる撮像部移動手段と、
撮像部移動手段が取付けられた移動部と、移動部が移動
する速度を検知する検知手段と、検知手段の出力に応じ
て、少なくとも1つの撮像部の環境に対する位置および
方向が第1の時刻と第2の時刻とで同じになるように撮
像部移動手段を制御する制御手段とを備える。
According to another aspect of the present invention, a camera-mounted moving body includes at least two imaging units, and imaging unit moving means capable of holding and moving the imaging units, respectively.
A moving unit to which the imaging unit moving unit is attached, a detecting unit for detecting a speed at which the moving unit moves, and a position and a direction with respect to the environment of at least one imaging unit corresponding to the first time according to an output of the detecting unit. And control means for controlling the imaging section moving means so as to be the same at the second time.

【0030】この発明に従うと、移動中においても異な
る時刻に、少なくとも1つの撮像部を環境に対して同じ
位置および方向に置くカメラ搭載移動体を提供すること
ができる。
According to the present invention, it is possible to provide a camera-mounted moving body that places at least one image pickup unit at the same position and at the same time with respect to the environment at different times during movement.

【0031】この発明の他の局面に従うと、カメラ搭載
移動体は、少なくとも2つの撮像部と、撮像部をそれぞ
れ保持し、移動させることができる撮像部移動手段と、
撮像部移動手段が取付けられた移動部と、撮像部の移動
を検知する検知手段と、検知手段の出力に応じて、少な
くとも1つの撮像部の環境に対する位置および方向が第
1の時刻と第2の時刻とで同じになるように撮像部移動
手段を制御する制御手段とを備える。
According to another aspect of the present invention, a camera-mounted moving body includes at least two imaging units, and imaging unit moving means capable of holding and moving the imaging units, respectively.
A moving unit to which the imaging unit moving unit is attached; a detection unit for detecting the movement of the imaging unit; and a position and a direction of at least one imaging unit with respect to the environment corresponding to the first time and the second time. And control means for controlling the imaging unit moving means so as to be the same at the time.

【0032】この発明に従うと、移動中においても、移
動体の移動とは独立して、異なる時刻に、少なくとも1
つの撮像部を環境に対して同じ位置および方向に置くカ
メラ搭載移動体を提供することができる。
According to the present invention, even during the movement, at least one time at a different time independently of the movement of the moving body.
It is possible to provide a camera-equipped mobile body in which two image pickup units are placed at the same position and direction with respect to the environment.

【0033】さらに好ましくは、カメラ搭載移動体の制
御手段は、少なくとも1つの撮像部の環境に対する位置
および方向が、第1の時刻と第2の時刻の間で常に同じ
になるように、撮像部移動手段を制御することを特徴と
する。
[0033] More preferably, the control means of the camera-equipped moving body is arranged such that the position and direction of the at least one imaging unit with respect to the environment are always the same between the first time and the second time. It is characterized by controlling the moving means.

【0034】この発明に従うと、移動中においても異な
る時刻に、少なくとも1つの撮像部を環境に対して常に
同じ位置および方向に置くことができ、画像の流れによ
る画像品質の低下を防止するカメラ搭載移動体を提供す
ることができる。
According to the present invention, at least one image pickup unit can always be placed at the same position and direction with respect to the environment at different times even while moving, and a camera mounted to prevent a decrease in image quality due to the flow of images. A moving object can be provided.

【0035】さらに好ましくは、少なくとも2つの撮像
部は第1の撮像部と第2の撮像部を含み、カメラ搭載移
動体はさらに、少なくとも2つの撮像部で撮像された画
像を処理する画像処理部を有し、画像処理部は、第1の
撮像部で撮像された画像を用いて環境内の動物体を抽出
する第1の画像処理を行ない、第1の画像処理の結果と
第2の撮像部で撮像された画像を用いて移動体と環境内
の特徴点との位置関係を求める第2の画像処理を行な
い、第1の撮像部は第1の時刻と第2の時刻とで環境に
対する位置および方向が同じであり、第2の撮像部は第
1の撮像部とは異なることを特徴とする。
[0035] More preferably, the at least two imaging units include a first imaging unit and a second imaging unit, and the camera-mounted moving body further includes an image processing unit that processes images captured by the at least two imaging units. The image processing unit performs first image processing for extracting a moving object in the environment using the image captured by the first imaging unit, and performs the first image processing result and the second imaging The second image processing is performed to obtain the positional relationship between the moving object and the feature point in the environment using the image captured by the unit, and the first imaging unit performs the first image processing on the environment at the first time and the second time. The position and the direction are the same, and the second imaging unit is different from the first imaging unit.

【0036】この発明に従うと、移動体が移動する間継
続して移動体と環境内の特徴点との位置関係を正確かつ
容易に求めるカメラ搭載移動体を提供することができ
る。
According to the present invention, it is possible to provide a camera-equipped mobile object that can accurately and easily determine the positional relationship between the mobile object and feature points in the environment while the mobile object moves.

【0037】さらに好ましくは、カメラ搭載移動体の撮
像部移動手段は、撮像部の視野の光軸と移動部との間の
距離を独立して変化させることができることを特徴とす
る。
[0037] More preferably, the imaging section moving means of the camera-mounted moving body is capable of independently changing the distance between the optical axis of the visual field of the imaging section and the moving section.

【0038】この発明に従うと、カメラ視野に環境画像
のみを取込むカメラ搭載移動体を提供することができ
る。
According to the present invention, it is possible to provide a camera-mounted moving body that captures only environmental images in the camera's field of view.

【0039】[0039]

【発明の実施の形態】以下に図面を参照しながら本発明
の好ましい実施の形態について説明する。なお、図面に
おいて同一符号は同一または相当する部分を示す。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Preferred embodiments of the present invention will be described below with reference to the drawings. In the drawings, the same reference numerals indicate the same or corresponding parts.

【0040】図1は本発明の第1の実施の形態における
床面移動車(移動体の一種)の外観を示す斜視図で、図
2はその機能ブロック図である。図を参照して床面移動
車は、CCDカメラ1と、単軸ロボット2と、移動部3
と、制御部6と、駆動モータ7と、車輪8と、エンコー
ダ9と、画像処理部10とから構成される。
FIG. 1 is a perspective view showing the appearance of a floor moving vehicle (a kind of moving body) according to the first embodiment of the present invention, and FIG. 2 is a functional block diagram thereof. Referring to the figure, a floor moving vehicle includes a CCD camera 1, a single-axis robot 2, and a moving unit 3
, A control unit 6, a drive motor 7, wheels 8, an encoder 9, and an image processing unit 10.

【0041】移動部3は、制御部6の指示により駆動モ
ータ7を駆動させて車輪8を回転させることにより矢印
方向に前進または後退が可能である。単軸ロボット2
は、その軸が移動部3の進行方向に平行になるように移
動部3に取付けられている。CCDカメラ1は、その視
野の光軸が移動部3の進行方向と平行になるように単軸
ロボット2の可動台に支持されている。したがってCC
Dカメラ1は移動部3の進行方向に平行に移動すること
ができる。
The moving section 3 is capable of moving forward or backward in the direction of the arrow by driving the drive motor 7 and rotating the wheels 8 in accordance with instructions from the control section 6. Single axis robot 2
Is mounted on the moving unit 3 so that its axis is parallel to the traveling direction of the moving unit 3. The CCD camera 1 is supported by a movable base of the single-axis robot 2 such that the optical axis of its visual field is parallel to the traveling direction of the moving unit 3. Therefore CC
The D camera 1 can move in parallel with the moving direction of the moving unit 3.

【0042】制御部6は、移動指示を駆動モータ7に送
り、車輪8を回転させる。これにより移動部3は前進ま
たは後退する。車輪にはエンコーダ9が接続されている
ため、車輪の回転方向および回転数を得ることができ
る。これによりエンコーダ9の出力から移動部3の移動
方向と移動距離を得ることができる。
The control section 6 sends a movement instruction to the drive motor 7 to rotate the wheels 8. As a result, the moving section 3 moves forward or backward. Since the encoder 9 is connected to the wheel, the rotation direction and the number of rotations of the wheel can be obtained. Thereby, the moving direction and the moving distance of the moving unit 3 can be obtained from the output of the encoder 9.

【0043】なお、エンコーダを用いずに制御部6の駆
動モータ7への移動指示から移動部3の移動方向と移動
距離を得るようにしてもよい。
The moving direction and the moving distance of the moving unit 3 may be obtained from the moving instruction of the control unit 6 to the driving motor 7 without using the encoder.

【0044】制御部6は、このようにして得られた移動
部3の移動方向および移動距離から、CCDカメラ1が
第1の時刻と第2の時刻とで環境に対して同じ位置とな
るように単軸ロボット2を制御する。ここで、CCDカ
メラ1が単軸ロボットの最も前方に位置し、移動部3が
毎秒V[m]の速度(前方方向を正とする)で定速度運
動をしている場合の単軸ロボット2の制御について説明
する。CCDカメラ1が時刻t0 (第1の時刻)で、単
軸ロボットの最も前方に位置する場合に、時刻(t0
T)(第2の時刻)では、CCDカメラ1が単軸ロボッ
ト2の最も前方からVT[m]後方に位置するように単
軸ロボット2を制御することで、CCDカメラ1の環境
に対する位置は時刻t0 と(t0 +T)とで同じにな
る。また、時間Tの間CCDカメラ1を−V[m]の速
度で移動するように単軸ロボット2を制御すれば、CC
Dカメラ1の環境に対する位置が時間Tの間継続して同
じとなる。これにより、画像の流れによる画像品質の低
下を防止することができ、移動中においても品質の良い
画像を得ることができる。
The control unit 6 determines that the CCD camera 1 is at the same position with respect to the environment at the first time and the second time based on the moving direction and the moving distance of the moving unit 3 obtained as described above. To control the single-axis robot 2. Here, the single-axis robot 2 in the case where the CCD camera 1 is positioned at the forefront of the single-axis robot, and the moving unit 3 is moving at a constant speed of V [m] per second (the forward direction is defined as positive). Will be described. When the CCD camera 1 is positioned at the forefront of the single-axis robot at time t 0 (first time), the time (t 0 +
At T) (second time), the position of the CCD camera 1 with respect to the environment is controlled by controlling the single-axis robot 2 so that the CCD camera 1 is located VT [m] behind the single-axis robot 2 from the front. It becomes the same at time t 0 and (t 0 + T). If the single-axis robot 2 is controlled so that the CCD camera 1 moves at the speed of -V [m] during the time T, CC
The position of the D camera 1 with respect to the environment remains the same during the time T. As a result, it is possible to prevent the image quality from deteriorating due to the flow of the image, and to obtain a high-quality image even while moving.

【0045】そして、時刻(t0 +T)の後、CCDカ
メラ1を単軸ロボット2の最も前方に移動させる。この
ときの時刻をt1 (第3の時刻)とする。その後の時刻
(t 1 +T)にCCDカメラ1が単軸ロボット2の最も
前方からVT[m]後方に位置するように単軸ロボット
2を制御すれば、CCDカメラ1の環境に対する位置は
時刻t1 と時刻(t1 +T)とで同じになる。このよう
に時刻t0 から時刻t 1 までの一連の動作を繰返すこと
で、移動部3が定速度で移動する場合でも、異なる時刻
でCCDカメラ1を環境に対して同じ位置に置いて撮像
した画像を断続して得ることができる。画像処理部10
は、撮像部1で撮像された画像を処理する。その処理と
しては、第1の時刻と第2の時刻でそれぞれ得られた画
像を用いて動物体の抽出を行なう処理がある。上述のご
とく第1の時刻と第2の時刻とでCCDカメラ1の環境
に対する位置は同じなので、動物体の抽出処理を容易に
行なうことができる。
Then, the time (t0+ T), the CCD camera
The camera 1 is moved forward of the single-axis robot 2. this
Time of time is t1(Third time). Later time
(T 1+ T) the CCD camera 1 is the single-axis robot 2
Single-axis robot so that it is located behind VT [m] from the front
2, the position of the CCD camera 1 with respect to the environment is
Time t1And time (t1+ T). like this
At time t0From time t 1Repeat the series of operations up to
Even if the moving unit 3 moves at a constant speed,
With the CCD camera 1 placed at the same position with respect to the environment
The obtained image can be obtained intermittently. Image processing unit 10
Processes an image captured by the imaging unit 1. Its processing and
The images obtained at the first time and the second time, respectively,
There is a process of extracting a moving object using an image. The above
In particular, the environment of the CCD camera 1 at the first time and the second time
Position is the same for
Can do it.

【0046】そして、第1の時刻または第2の時刻で得
られた画像と、第3の時刻で得られた画像とを用いてオ
プティカルフロー演算を行ない、その結果と移動部3の
移動方向および移動距離とから画像内の特徴点と移動体
との位置関係を演算する処理(3次元位置演算)を行な
う。移動体と特徴点との位置関係とは、移動体と特徴点
との間の距離や移動体から特徴点の方向などをいう。こ
のときオプティカルフロー演算に用いる特徴点を、先に
抽出した動物体中の特徴点と静止物体中の特徴点とに分
割してオプティカルフロー演算を行なえば、オプティカ
ルフロー演算の速度が速くなると同時に、特徴点位置を
正確に求めることができる。
Then, an optical flow operation is performed using the image obtained at the first time or the second time and the image obtained at the third time, and the result, the moving direction of the moving unit 3 and A process (three-dimensional position calculation) of calculating the positional relationship between the feature point in the image and the moving object from the moving distance is performed. The positional relationship between the moving object and the feature point means a distance between the moving object and the feature point, a direction of the feature point from the moving object, and the like. At this time, if the feature points used for the optical flow calculation are divided into the feature points in the moving object and the feature points in the stationary object extracted earlier and the optical flow calculation is performed, the speed of the optical flow calculation is increased, and The feature point position can be obtained accurately.

【0047】図3は本発明の第2の実施の形態における
床面移動車の外観を示す斜視図であり、図4はその機能
ブロック図である。この実施の形態では、CCDカメラ
1をその視野の光軸が水平回転できるように旋回機構1
1を付加している。その他の部分は第1の実施の形態と
同じであるため、ここでの説明は繰返さない。CCDカ
メラ1の視野の光軸が移動部3の進行方向と垂直になる
ように旋回機構11を制御する場合について説明する。
FIG. 3 is a perspective view showing the appearance of a floor moving vehicle according to a second embodiment of the present invention, and FIG. 4 is a functional block diagram thereof. In this embodiment, a turning mechanism 1 is provided so that the optical axis of the field of view of the CCD camera 1 can be rotated horizontally.
1 is added. The other parts are the same as in the first embodiment, and the description thereof will not be repeated. A case where the turning mechanism 11 is controlled so that the optical axis of the visual field of the CCD camera 1 is perpendicular to the traveling direction of the moving unit 3 will be described.

【0048】この場合にも移動部3が移動中に単軸ロボ
ット2を第1の実施の形態と同様に制御することによ
り、異なる時刻に環境に対して同じ位置および方向にC
CDカメラ1を置くことができるので、動物体の抽出処
理を容易に行なうことができる。また、移動部3の移動
経路上の異なる2つの視点からCCDカメラ1の視野の
光軸を移動経路に垂直にして撮像できるので、それらの
画像の特徴点の対応を求めることにより、三角測距で特
徴点までの距離を計算する移動立体視を行なうことがで
きる。この場合、先の動物体の抽出処理により動物体を
抽出しているので、動物体と静止物体とを分割して移動
立体視を行なえば、正確な距離を計算することができ
る。
In this case as well, by controlling the single-axis robot 2 while the moving unit 3 is moving in the same manner as in the first embodiment, the same position and direction with respect to the environment can be obtained at different times.
Since the CD camera 1 can be placed, the moving object can be easily extracted. Further, since it is possible to take an image from two different viewpoints on the moving path of the moving unit 3 with the optical axis of the visual field of the CCD camera 1 perpendicular to the moving path, the correspondence between the feature points of these images is obtained, so that triangulation is performed. To perform moving stereoscopic view for calculating the distance to the feature point. In this case, since the moving object is extracted by the preceding moving object extraction processing, an accurate distance can be calculated by dividing the moving object and the stationary object and performing moving stereoscopic viewing.

【0049】本実施の形態では、撮像部移動手段に単軸
ロボットと旋回機構とを用いたが、単軸ロボットに代え
て回転運動を行なうロボットを用いてもよい。これによ
っても第1の時刻と第2の時刻とでCCDカメラを環境
に対して同じ位置に置くことができる。
In this embodiment, a single-axis robot and a turning mechanism are used as the imaging unit moving means, but a robot that performs a rotary motion may be used instead of the single-axis robot. This also allows the CCD camera to be placed at the same position with respect to the environment at the first time and the second time.

【0050】図5はCCDカメラを2台用いた本発明の
第3の実施の形態における床面移動車の外観を示す斜視
図で、図6はその機能ブロック図である。CCDカメラ
1,4は、視野の光軸が移動部3の進行方向と平行にな
るように単軸ロボット2,5の可動台にそれぞれ支持さ
れている。単軸ロボット2,5は、軸が移動部3の進行
方向に平行になるように移動部3に取付けられている。
制御部6は、駆動モータ7の移動指示を行なうととも
に、車輪の回転数と回転方向をエンコーダ9から取得す
る。これにより制御部6は移動部3の移動方向と移動距
離とを計算する。また、制御部6は単軸ロボット2,5
を独立して制御する。次に単軸ロボット2,5の制御に
ついて説明する。
FIG. 5 is a perspective view showing the appearance of a floor moving vehicle according to a third embodiment of the present invention using two CCD cameras, and FIG. 6 is a functional block diagram thereof. The CCD cameras 1 and 4 are respectively supported on movable platforms of the single-axis robots 2 and 5 such that the optical axis of the visual field is parallel to the traveling direction of the moving unit 3. The single-axis robots 2 and 5 are attached to the moving unit 3 so that their axes are parallel to the traveling direction of the moving unit 3.
The control unit 6 issues a movement instruction of the drive motor 7 and acquires the rotation speed and rotation direction of the wheels from the encoder 9. Thereby, the control unit 6 calculates the moving direction and the moving distance of the moving unit 3. Further, the control unit 6 includes the single-axis robots 2 and 5
Are controlled independently. Next, control of the single-axis robots 2 and 5 will be described.

【0051】図7は本実施の形態における床面移動車の
平面図である。今、移動部3が速度V0(図面右方向を
正)で、運動をしている場合について説明する。ここ
で、X1を単軸ロボット2の可動範囲の左端からCCD
カメラ1までの距離、X2を単軸ロボット5の可動範囲
の左端からCCDカメラ4までの距離、単軸ロボットの
可動範囲の距離をDとする。V1,V2をそれぞれCC
Dカメラ1、CCDカメラ4の移動部3に対する相対速
度(図面右方向を正)とする。したがって、V0+V1
はCCDカメラ1の環境に対する速度を、V0+V2は
CCDカメラ4の環境に対する速度を表わす。
FIG. 7 is a plan view of the floor moving vehicle according to the present embodiment. The case where the moving unit 3 is moving at the speed V0 (positive in the right direction in the drawing) will be described. Here, X1 is a CCD from the left end of the movable range of the single-axis robot 2.
Let X be the distance to the camera 1 and X2 be the distance from the left end of the movable range of the single-axis robot 5 to the CCD camera 4 and the distance of the movable range of the single-axis robot. V1 and V2 are each CC
The relative speed of the D camera 1 and the CCD camera 4 with respect to the moving unit 3 (positive in the right direction in the drawing). Therefore, V0 + V1
Represents the speed of the CCD camera 1 with respect to the environment, and V0 + V2 represents the speed of the CCD camera 4 with respect to the environment.

【0052】図8は、横軸を時間軸にとったときの移動
部3の速度V0と、CCDカメラ1,4の速度V1,V
2および位置X1,X2の関係を表わした図である。時
刻t=0で、CCDカメラ1は、X1=0の位置に、C
CDカメラ4はX2=Dの位置にある。また、移動部3
が加減速中は、CCDカメラをX1=0、X2=Dの位
置に置くように制御される。
FIG. 8 shows the speed V0 of the moving unit 3 and the speeds V1 and V1 of the CCD cameras 1 and 4 when the horizontal axis is the time axis.
FIG. 2 is a diagram showing a relationship between the position 2 and positions X1 and X2. At time t = 0, the CCD camera 1 moves C1 to the position of X1 = 0.
The CD camera 4 is at the position of X2 = D. The moving unit 3
During acceleration / deceleration, the CCD camera is controlled to be located at the positions of X1 = 0 and X2 = D.

【0053】t=0からt=t1の間では、移動部3が
停止状態から加速を行ない、t=t1で目標の速度に達
する。このときV1=V2=0である。
During the period from t = 0 to t = t1, the moving unit 3 accelerates from the stop state, and reaches the target speed at t = t1. At this time, V1 = V2 = 0.

【0054】t=t1からt=t2の間では、V1=V
0、V2=−V0となるように単軸ロボット2,5を制
御する。これにより、V1+V0=2V0、V2+V0
=0となり、CCDカメラ1は環境に対して移動部3の
速度の2倍の速度で移動し、CCDカメラ4は環境に対
して静止する。画像処理部10では、CCDカメラ4の
画像をもとにして動物体の抽出処理を行ない、CCDカ
メラ1の画像をもとにしてオプティカルフロー演算を行
ない、演算結果と移動部3の移動方向および移動距離と
から移動体と特徴点との位置関係を求める。
From t = t1 to t = t2, V1 = V
0, the single-axis robots 2 and 5 are controlled so that V2 = −V0. Thereby, V1 + V0 = 2V0, V2 + V0
= 0, the CCD camera 1 moves at twice the speed of the moving unit 3 with respect to the environment, and the CCD camera 4 stops with respect to the environment. The image processing unit 10 performs a moving object extraction process based on the image of the CCD camera 4, performs an optical flow calculation based on the image of the CCD camera 1, and calculates the calculation result and the moving direction of the moving unit 3. The positional relationship between the moving object and the feature point is obtained from the moving distance.

【0055】時刻t=t2では、CCDカメラが可動範
囲の限界に達するので、各CCDカメラの移動方向を変
える。
At time t = t2, since the CCD cameras reach the limit of the movable range, the moving direction of each CCD camera is changed.

【0056】t=t2からt=t3の間では、V1=−
V0、V2=V0となるように単軸ロボット2,5を制
御する。これにより、CCDカメラ1は環境に対して静
止し、CCDカメラ4は環境に対して移動部3の速度の
2倍の速度で移動する。画像処理部10では、CCDカ
メラ1の画像をもとにして動物体の抽出処理を行ない、
CCDカメラ4の画像をもとにしてオプティカルフロー
演算を行なう。
From t = t2 to t = t3, V1 = −
The single-axis robots 2 and 5 are controlled so that V0 and V2 = V0. Thus, the CCD camera 1 is stationary with respect to the environment, and the CCD camera 4 moves with respect to the environment at twice the speed of the moving unit 3. The image processing unit 10 performs a moving object extraction process based on the image of the CCD camera 1,
An optical flow operation is performed based on the image of the CCD camera 4.

【0057】t=t3からt=t4では、t=t1から
t=t3までの間の制御を繰返す。t=t4からt=t
5では、移動部3が減速するので、X1=0、X2=D
となるように単軸ロボット2,5を制御する。
From t = t3 to t = t4, the control from t = t1 to t = t3 is repeated. t = t4 to t = t
5, the moving unit 3 is decelerated, so that X1 = 0 and X2 = D
The single-axis robots 2 and 5 are controlled so that

【0058】t=t5からt=t6では、CCDカメラ
は移動部3に対して移動せず、移動部3が減速してt=
t6で速度が0となる。
From t = t5 to t = t6, the CCD camera does not move with respect to the moving unit 3, and the moving unit 3 decelerates to t = t5.
The speed becomes 0 at t6.

【0059】t=t6からt=t7の間、移動部3が停
止状態から加速してt=t7の時点で目標速度に到達す
る。この間CCDカメラは移動しない。
During the period from t = t6 to t = t7, the moving unit 3 accelerates from the stop state and reaches the target speed at the time of t = t7. During this time, the CCD camera does not move.

【0060】t=t7からt=t8の間、各CCDカメ
ラは往復運動を再開する。V1とV2の変化パターン
は、t=t1からt=t4の期間の変化パターンと同様
であるが、移動部3の移動方向が逆となるので、画像処
理部10が動物体の抽出処理に用いる画像とオプティカ
ルフロー演算に用いる画像とが逆になる。環境に対する
速度が零となるCCDカメラの画像を動物体の抽出処理
に、他のCCDカメラの画像をオプティカルフロー演算
に用いることになる。
From t = t7 to t = t8, each CCD camera resumes reciprocating motion. The change pattern between V1 and V2 is the same as the change pattern during the period from t = t1 to t = t4, but the moving direction of the moving unit 3 is reversed, so that the image processing unit 10 uses the moving object extraction processing. The image and the image used for the optical flow calculation are reversed. The image of the CCD camera whose speed with respect to the environment becomes zero is used for the moving object extraction processing, and the image of the other CCD camera is used for the optical flow calculation.

【0061】t=t8からt=t9の間、移動部3が減
速するので、X1=0、X2=Dとなるように単軸ロボ
ット2,5を制御する。
Since the moving unit 3 decelerates from t = t8 to t = t9, the single-axis robots 2 and 5 are controlled so that X1 = 0 and X2 = D.

【0062】t=t10で移動部3が停止し、制御を終
了する。これにより移動部3の移動中であっても2台の
CCDカメラのうちいずれか1台を環境に対して同じ位
置に置くことができる。
At t = t10, the moving unit 3 stops, and the control ends. This allows one of the two CCD cameras to be placed at the same position with respect to the environment even while the moving unit 3 is moving.

【0063】また、いずれか1台のCCDカメラで撮像
した画像を用いて動物体の抽出を行ない、他のCCDカ
メラで撮像した画像を用いて3次元位置演算を行なうこ
とができるので、CCDカメラを1台用いた第1の実施
の形態に比べて、動物体の抽出のできない期間と3次元
位置演算のできない期間を大幅に減らすことができる。
Further, a moving object can be extracted using an image picked up by any one of the CCD cameras, and a three-dimensional position can be calculated using an image picked up by another CCD camera. As compared with the first embodiment using one unit, the period during which the moving object cannot be extracted and the period during which the three-dimensional position calculation cannot be performed can be significantly reduced.

【0064】図9は、移動部3にCCDカメラと単軸ロ
ボットをそれぞれ2台ずつ搭載し、CCDカメラの光軸
を鉛直方向に移動可能に昇降機構を付加した本発明の第
4の実施の形態における床面移動車の外観を示す斜視図
で、図10はその機能ブロック図である。昇降機構には
電動式ラボラトリージャッキを用いている。
FIG. 9 shows a fourth embodiment of the present invention in which two CCD cameras and two single-axis robots are mounted on the moving unit 3 and an elevating mechanism is added so that the optical axis of the CCD camera can be moved in the vertical direction. FIG. 10 is a perspective view showing the appearance of a floor-moving vehicle in the form, and FIG. 10 is a functional block diagram thereof. An electric laboratory jack is used for the lifting mechanism.

【0065】昇降機構12は、単軸ロボット2の可動台
に取付けられ、他端で旋回機構11を支持している。昇
降機構14も同様に、単軸ロボット5に取付けられ、他
端で旋回機構13を支持している。
The elevating mechanism 12 is attached to the movable base of the single-axis robot 2 and supports the turning mechanism 11 at the other end. Similarly, the lifting mechanism 14 is attached to the single-axis robot 5 and supports the turning mechanism 13 at the other end.

【0066】CCDカメラ1とCCDカメラ4の視野の
光軸を移動部3の進行方向と垂直にした場合、撮像する
環境に対して後方となるCCDカメラ(図9においては
CCDカメラ1)は、前方のCCDカメラが画像中に入
るため不都合である。そこで後方のCCDカメラの昇降
機構でCCDカメラの視野の光軸を上昇させることで、
後方のCCDカメラの画像中に前方のCCDカメラが入
らないようにすることができる。図9では、後方となる
CCDカメラ1の昇降機構12を上昇させ、前方となる
CCDカメラ4の昇降機構14を下降させることにな
る。
When the optical axes of the visual fields of the CCD camera 1 and the CCD camera 4 are made perpendicular to the traveling direction of the moving unit 3, the CCD camera (CCD camera 1 in FIG. 9) which is rearward with respect to the environment in which the image is taken, This is inconvenient because the front CCD camera enters the image. Therefore, by raising the optical axis of the field of view of the CCD camera by the lifting mechanism of the rear CCD camera,
It is possible to prevent the front CCD camera from entering the image of the rear CCD camera. In FIG. 9, the lifting mechanism 12 of the rear CCD camera 1 is raised, and the lifting mechanism 14 of the front CCD camera 4 is lowered.

【0067】このときの単軸ロボット2と単軸ロボット
5の制御は、第3の実施の形態の場合と同様である。
The control of the single-axis robot 2 and the single-axis robot 5 at this time is the same as in the case of the third embodiment.

【0068】図11は、CCDカメラ1に加速度センサ
15を、CCDカメラ4に加速度センサ16を搭載した
場合の本発明の第5の実施の形態における床面移動車の
外観を示す斜視図で、図12はその機能ブロック図であ
る。
FIG. 11 is a perspective view showing the appearance of a floor-moving vehicle according to a fifth embodiment of the present invention in which an acceleration sensor 15 is mounted on the CCD camera 1 and an acceleration sensor 16 is mounted on the CCD camera 4. FIG. 12 is a functional block diagram thereof.

【0069】加速度センサ15,16は、CCDカメラ
1,4の加速度を検知し、検知した加速度を撮像部移動
制御部17に送出する。送出された加速度は、撮像部移
動制御部17で単軸ロボットの制御に用いられる。
The acceleration sensors 15 and 16 detect the acceleration of the CCD cameras 1 and 4 and transmit the detected acceleration to the imaging unit movement control unit 17. The transmitted acceleration is used by the imaging unit movement control unit 17 for controlling the single-axis robot.

【0070】撮像部移動制御部17は、加速度センサ1
5,16で検知した加速度が零となるように一方の単軸
ロボットを制御する。これにより、一方のCCDカメラ
は、移動部3の走行状態にかかわらず環境に対する位置
が同じとなる。そして、一方のCCDカメラの移動と反
対方向に他方のCCDカメラが移動するように他方の単
軸ロボットを制御する。例えば単軸ロボット2がCCD
カメラ1の加速度を零にするように移動させる場合、動
物体の抽出処理に使用する画像はCCDカメラ1からの
みなので、単軸ロボット5はCCDカメラ4を加速度セ
ンサ15,16の出力と無関係に移動させればよい。そ
して、CCDカメラ1がX1=0、CCDカメラ4がX
2=D(初期位置)に達すれば、次の期間はCCDカメ
ラ4の画像を用いて動物体の抽出処理等を行なう。この
時、加速度センサ16が検知した加速度が零になるよう
に、CCDカメラ4の移動を制御し、CCDカメラ1は
加速度センサ15,16の出力と無関係にX1=D(初
期位置)まで移動させる。このようにして、一定期間ご
とに加速度を零にするCCDカメラと初期位置に戻すC
CDカメラを切替えることにより、移動部3が加減速中
であっても画像処理部10で動物体の抽出処理とオプテ
ィカルフロー演算ができることになる。
The imaging unit movement control unit 17 includes the acceleration sensor 1
One of the single-axis robots is controlled so that the acceleration detected in steps 5 and 16 becomes zero. Thereby, one CCD camera has the same position with respect to the environment regardless of the traveling state of the moving unit 3. Then, the other single-axis robot is controlled so that the other CCD camera moves in a direction opposite to the movement of one CCD camera. For example, the single-axis robot 2 is a CCD
When moving the camera 1 so that the acceleration of the camera 1 becomes zero, since the image used for the moving object extraction processing is only from the CCD camera 1, the single-axis robot 5 controls the CCD camera 4 regardless of the outputs of the acceleration sensors 15 and 16. Just move it. Then, CCD camera 1 has X1 = 0 and CCD camera 4 has X
If 2 = D (initial position) is reached, a moving object extraction process or the like is performed using the image of the CCD camera 4 in the next period. At this time, the movement of the CCD camera 4 is controlled so that the acceleration detected by the acceleration sensor 16 becomes zero, and the CCD camera 1 is moved to X1 = D (initial position) regardless of the outputs of the acceleration sensors 15 and 16. . In this manner, the CCD camera for reducing the acceleration to zero at regular intervals and the C for returning to the initial position
By switching the CD camera, even when the moving unit 3 is accelerating or decelerating, the image processing unit 10 can perform the moving object extraction processing and the optical flow calculation.

【0071】また、単軸ロボット2,5の制御は、移動
部3の制御とは独立した制御となるので、移動部3が移
動制御機能や駆動部を持たない場合(他の移動体に牽引
される場合や手押しの場合、また坂を自由落下する場合
や慣性力により移動する場合など)や、駆動部を有して
いても車輪がスリップしたりして移動速度が車輪回転数
と1対1に対応しない場合などでも、CCDカメラ1,
4を環境に対して静止状態に保つことができる。
Since the control of the single-axis robots 2 and 5 is independent of the control of the moving unit 3, if the moving unit 3 does not have a movement control function or a driving unit (tow the other moving body). The wheel is slipped even if it has a drive unit, and the speed of movement is one pair with the wheel speed. Even if it does not correspond to 1, CCD camera 1,
4 can be kept stationary with respect to the environment.

【0072】なお、本実施の形態では撮像部移動制御部
17の制御を加速度センサ15,16で検知した加速度
が零になるように一方の単軸ロボットを撮像部移動制御
部17で制御したが、撮像部移動制御部17で計時する
時間と加速度センサ15,16の出力をもとにして、C
CDカメラ1,4の移動量を計算し、第1の時刻と第2
の時刻とでCCDカメラ1,4の環境に対する位置が同
じとなるように制御してもよい。
In the present embodiment, one of the single-axis robots is controlled by the imaging unit movement control unit 17 so that the acceleration detected by the acceleration sensors 15 and 16 becomes zero. Based on the time measured by the imaging unit movement control unit 17 and the outputs of the acceleration sensors 15 and 16, C
The movement amounts of the CD cameras 1 and 4 are calculated, and the first time and the second time are calculated.
The position of the CCD cameras 1 and 4 with respect to the environment may be controlled to be the same at the time.

【0073】図13は、速度センサを移動部3に搭載し
た場合の本発明の第6の実施の形態における床面移動車
の機能ブロック図である。単軸ロボット2,5の制御は
第3の実施の形態と同じであるが、移動部3の移動方向
と速度は、移動部3に搭載した速度センサ18で検知す
る。検知した移動方向と速度をもとに撮像部移動制御部
17が、単軸ロボット2,5を制御する点で、本実施の
形態は第3の実施の形態とは異なる。
FIG. 13 is a functional block diagram of a floor moving vehicle according to the sixth embodiment of the present invention when a speed sensor is mounted on the moving unit 3. The control of the single-axis robots 2 and 5 is the same as in the third embodiment, but the moving direction and speed of the moving unit 3 are detected by a speed sensor 18 mounted on the moving unit 3. This embodiment is different from the third embodiment in that the imaging unit movement control unit 17 controls the single-axis robots 2 and 5 based on the detected movement direction and speed.

【0074】CCDカメラに加速度センサを搭載した第
5の実施の形態の場合には、加速度センサの出力が零に
なるように単軸ロボットを制御するので零位法による精
度の良い制御が可能であるが、CCDカメラの重量が大
きくなるのでCCDカメラの移動に必要な駆動力が大き
くなるという短所がある。これに対して移動部3に速度
センサ18を搭載する場合には、カメラの重量を小さく
してカメラの移動のために必要な駆動力を軽減すること
ができるという利点がある。
In the case of the fifth embodiment in which the acceleration sensor is mounted on the CCD camera, the single-axis robot is controlled so that the output of the acceleration sensor becomes zero, so that accurate control by the null method is possible. However, there is a disadvantage that the driving force required for moving the CCD camera is increased because the weight of the CCD camera is increased. On the other hand, when the speed sensor 18 is mounted on the moving unit 3, there is an advantage that the weight of the camera can be reduced and the driving force required for moving the camera can be reduced.

【0075】図14はCCDカメラを3台用いた本発明
の第7の実施の形態における床面移動車の外観を示す斜
視図である。CCDカメラ1,4,19は、視野の光軸
が移動部3の進行方向と平行になるように単軸ロボット
2,5,20の可動台にそれぞれ支持されている。単軸
ロボット2,5,20は、光軸を移動部3の進行方向に
平行になるように移動部3に取付けられている。
FIG. 14 is a perspective view showing the appearance of a floor moving vehicle according to a seventh embodiment of the present invention using three CCD cameras. The CCD cameras 1, 4, and 19 are supported on movable platforms of the single-axis robots 2, 5, and 20, respectively, such that the optical axis of the visual field is parallel to the traveling direction of the moving unit 3. The single-axis robots 2, 5, and 20 are attached to the moving unit 3 so that the optical axis is parallel to the traveling direction of the moving unit 3.

【0076】単軸ロボット2,5,20の制御について
説明する。CCDカメラの速度を、移動部3の移動速度
と反対方向で同じ速さになるように単軸ロボットを制御
すれば、CCDカメラを環境に対して静止した状態に維
持することができる。上述の第3の実施の形態において
2台のCCDカメラを用いたが、CCDカメラが移動方
向を変える時点では、方向切替時の加減速によりCCD
カメラを静止状態に維持することができなかった。そこ
で本実施の形態では3台のCCDカメラを用いて、図1
5に示すように、往復運動するCCDカメラの位相を1
20°ずつずらした制御を行なう。図15では、移動部
3がV0の速度で運動している場合の、CCDカメラ1
の速度をV1、CCDカメラ4の速度をV2、CCDカ
メラ19の速度をV3として表わしている。これにより
3台のCCDカメラのうちいずれか1台は環境に対して
静止状態にあるので常に動物体の抽出処理を行なうこと
ができ、いずれか1台は移動部3と同方向に移動してい
るので常に3次元位置計測のためのオプティカルフロー
演算を行なうことができる。
The control of the single-axis robots 2, 5, and 20 will be described. If the single-axis robot is controlled so that the speed of the CCD camera is the same in the direction opposite to the moving speed of the moving unit 3, the CCD camera can be kept stationary with respect to the environment. Although two CCD cameras are used in the third embodiment, when the CCD camera changes the moving direction, the CCD camera is accelerated and decelerated at the time of the direction switching.
The camera could not be kept stationary. Therefore, in the present embodiment, three CCD cameras are used, and FIG.
As shown in FIG. 5, the phase of the reciprocating CCD camera is set to 1
Control is performed by shifting by 20 °. In FIG. 15, the CCD camera 1 when the moving unit 3 is moving at the speed of V0.
Is represented by V1, the speed of the CCD camera 4 is represented by V2, and the speed of the CCD camera 19 is represented by V3. As a result, any one of the three CCD cameras is stationary with respect to the environment, so that the moving object can always be extracted, and any one of the three CCD cameras moves in the same direction as the moving unit 3. Therefore, the optical flow calculation for three-dimensional position measurement can always be performed.

【0077】なお、オプティカルフロー演算に用いるカ
メラを切換える際には、切換時前後に移動体と同方向に
移動する2つのカメラの画像をそれぞれ用いて、オプテ
ィカルフロー演算を重複して行なうことにより、オプテ
ィカルフロー演算を途切れなく連続して行なうことがで
きる。たとえば図15の時刻t1とt3の間ではCCD
カメラ4とCCDカメラ19がV0の速度で移動してい
る。この間にCCDカメラ4で撮像した画像を用いたオ
プティカルフロー演算とCCDカメラ19で撮像した画
像を用いたオプティカルフロー演算とを並行して行なえ
ば、切替時の動画像の不連続性を解消でき、3次元位置
計測のためのオプティカルフロー演算を途切れなく連続
して行なうことができる。
When the camera used for the optical flow calculation is switched, the optical flow calculation is performed repeatedly using the images of the two cameras moving in the same direction as the moving body before and after the switching. Optical flow calculation can be performed continuously without interruption. For example, between time t1 and t3 in FIG.
The camera 4 and the CCD camera 19 are moving at the speed of V0. During this time, if the optical flow calculation using the image captured by the CCD camera 4 and the optical flow calculation using the image captured by the CCD camera 19 are performed in parallel, the discontinuity of the moving image at the time of switching can be eliminated. Optical flow calculation for three-dimensional position measurement can be performed continuously without interruption.

【0078】図16は、本発明の第8の実施の形態にお
ける床面移動車の外観を示す斜視図であり、第3の実施
の形態に固定型のCCDカメラを付加した実施の形態を
示す。CCDカメラ19は、視野の光軸を移動部3の進
行方向と平行に移動部3に固定されている。単軸ロボッ
ト2,5の制御は、第3の実施の形態の場合と同じであ
る。
FIG. 16 is a perspective view showing the appearance of a floor moving vehicle according to an eighth embodiment of the present invention, showing an embodiment in which a fixed CCD camera is added to the third embodiment. . The CCD camera 19 is fixed to the moving unit 3 with the optical axis of the visual field parallel to the traveling direction of the moving unit 3. The control of the single-axis robots 2 and 5 is the same as that in the third embodiment.

【0079】CCDカメラ1およびCCDカメラ4のい
ずれかの画像を用いて動物体の抽出処理を行ない、CC
Dカメラ19の画像を用いて常に3次元位置計測のため
のオプティカルフロー演算を行なう。もちろん動物体抽
出用のCCDカメラは3台用いてもよい。本実施の形態
では常に同じCCDカメラで撮像した画像をオプティカ
ルフロー演算に用いるので、オプティカルフローの計算
を途切れなく行なうことができる。また、先に述べたC
CDカメラ切換時の2台のカメラの画像をそれぞれ用い
た重複したオプティカルフロー演算の必要がなくなり、
計算負荷を軽減することができる。
The moving object is extracted using either the image of the CCD camera 1 or the image of the CCD camera 4,
Optical flow calculation for three-dimensional position measurement is always performed using the image of the D camera 19. Of course, three CCD cameras for extracting a moving object may be used. In the present embodiment, an image captured by the same CCD camera is always used for the optical flow calculation, so that the calculation of the optical flow can be performed without interruption. In addition, the aforementioned C
Eliminating the need for duplicate optical flow calculations using the images of the two cameras when switching between CD cameras,
Calculation load can be reduced.

【0080】図17は、CCDカメラに加速度センサと
ジャイロセンサを搭載した第9の実施の形態における床
面移動車の機能ブロック図である。CCDカメラ1は加
速度センサ15とジャイロセンサ21を搭載しており、
旋回機構11に支持されている。旋回機構11は単軸ロ
ボット2の可動台に取付けられており、単軸ロボット2
は移動部3に取付けられている。撮像部移動制御部17
は、加速度センサ15の出力とジャイロセンサ21の出
力をもとに、CCDカメラ1の移動量が零になるように
単軸ロボット2と旋回機構11を制御する。画像処理部
10は、CCDカメラ1の画像を処理する。
FIG. 17 is a functional block diagram of a floor moving vehicle according to a ninth embodiment in which an acceleration sensor and a gyro sensor are mounted on a CCD camera. The CCD camera 1 has an acceleration sensor 15 and a gyro sensor 21 mounted thereon.
It is supported by the turning mechanism 11. The turning mechanism 11 is mounted on a movable base of the single-axis robot 2,
Is attached to the moving unit 3. Imaging unit movement control unit 17
Controls the single-axis robot 2 and the turning mechanism 11 based on the output of the acceleration sensor 15 and the output of the gyro sensor 21 so that the movement amount of the CCD camera 1 becomes zero. The image processing unit 10 processes an image of the CCD camera 1.

【0081】そして単軸ロボット2の軸を移動部3がそ
の場回転するときの回転軸と交わるように移動部に設置
し、移動部3が静止しているときのCCDカメラ1の位
置を移動部3がその場回転するときの回転軸上となるよ
うに単軸ロボット2を制御する。移動部3が静止状態か
らその場回転を始めると、ジャイロセンサ21によりC
CDカメラの回転角度が検出される。撮像部移動制御部
17は、ジャイロセンサ21から出力される回転角速度
が零になるように旋回機構11を制御する。これにより
移動部3がその場回転を行なっているときでもカメラを
静止状態にすることができるので、動物体の抽出処理を
行なうことができる。
Then, the axis of the single-axis robot 2 is set in the moving unit so as to intersect with the rotation axis when the moving unit 3 rotates in place, and the position of the CCD camera 1 when the moving unit 3 is stationary is moved. The single-axis robot 2 is controlled so as to be on the rotation axis when the unit 3 rotates in place. When the moving unit 3 starts rotating in place from a stationary state, the gyro sensor 21
The rotation angle of the CD camera is detected. The imaging unit movement control unit 17 controls the turning mechanism 11 so that the rotational angular velocity output from the gyro sensor 21 becomes zero. Thus, the camera can be kept stationary even when the moving unit 3 is rotating in place, so that the moving object can be extracted.

【0082】図18は、CCDカメラを回転3自由度、
並進3自由度の合計6自由度を有する保持台上に搭載し
た第10の実施の形態における床面移動車の外観を示す
斜視図で、図19はその機能ブロック図である。
FIG. 18 shows that the CCD camera is rotated three degrees of freedom.
FIG. 19 is a perspective view showing an appearance of a floor moving vehicle according to a tenth embodiment mounted on a holding table having a total of six degrees of freedom of three degrees of translation, and FIG. 19 is a functional block diagram thereof.

【0083】CCDカメラ1には、3軸加速度センサ2
2と3軸ジャイロセンサ23が搭載されている。CCD
カメラ1は、保持台25上に固定されている。保持台2
5は、ボールジョイント26を介して直動アクチュエー
タ27の一端で支持されている。3本の直動アクチュエ
ータ27は、それぞれ他端を単軸ロボット2の可動台に
回転可能に接続されている。3つの単軸ロボット2は、
その軸がそれぞれ直交するように移動部3上に固定され
ている。
The CCD camera 1 has a three-axis acceleration sensor 2
Two- and three-axis gyro sensors 23 are mounted. CCD
The camera 1 is fixed on a holding table 25. Holder 2
5 is supported at one end of a linear motion actuator 27 via a ball joint 26. The other end of each of the three linear motion actuators 27 is rotatably connected to the movable base of the single-axis robot 2. The three single-axis robots 2
The axes are fixed on the moving unit 3 so as to be orthogonal to each other.

【0084】3つの単軸ロボット2と直動アクチュエー
タ27とボールジョイント、および保持台の組合せ(こ
れらを総称して以下「6自由度パラレルメカニズム」と
いう)により回転3自由度、並進3自由度の合計6自由
度の運動が可能となっている。
A combination of three single-axis robots 2, a linear actuator 27, a ball joint, and a holding table (hereinafter collectively referred to as a "six degrees of freedom parallel mechanism") provides three degrees of freedom and three degrees of translation. Exercise with a total of six degrees of freedom is possible.

【0085】撮像部移動制御部17は、3軸加速度セン
サ22および3軸ジャイロセンサ23の出力をもとに、
3方向の加速度と3軸回りの角速度がすべて零になるよ
うに6自由度パラレルメカニズムを制御する制御と、C
CDカメラ1を移動部3に対して初期位置に戻す制御と
を繰返す。ここで移動体に対する初期位置とは、それぞ
れの単軸ロボット2と直動アクチュエータ27とを可動
範囲の中心に位置した場合のCCDカメラ1の位置をい
う。この構成により移動部3が平面上を移動する場合に
限らず、野外の不整地や、水中、空中の3次元移動など
の自由度の大きい運動をする場合でも、CCDカメラを
一定期間環境に対して静止状態に保つことができる。
The imaging unit movement control unit 17 determines the output of the three-axis acceleration sensor 22 and the three-axis gyro sensor 23 based on the outputs.
A control for controlling the 6-degree-of-freedom parallel mechanism so that accelerations in three directions and angular velocities around the three axes are all zero;
The control of returning the CD camera 1 to the initial position with respect to the moving unit 3 is repeated. Here, the initial position with respect to the moving body refers to the position of the CCD camera 1 when the single-axis robot 2 and the linear actuator 27 are located at the center of the movable range. With this configuration, the CCD camera can be moved to the environment for a certain period of time, not only when the moving unit 3 moves on a plane, but also when it has a large degree of freedom such as outdoor rough terrain, underwater, and air. Can be kept stationary.

【0086】なお、本実施の形態では、6自由度を有す
る保持台の駆動機構としてパラレルメカニズムを用いて
いるが、6自由度シリアルメカニズムで構成してもよ
い。
In the present embodiment, a parallel mechanism is used as a drive mechanism of the holding table having six degrees of freedom, but a holding mechanism having six degrees of freedom may be used.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1の実施の形態におけるカメラ搭載
移動体の斜視図である。
FIG. 1 is a perspective view of a camera-mounted moving body according to a first embodiment of the present invention.

【図2】本発明の第1の実施の形態におけるカメラ搭載
移動体の機能ブロック図である。
FIG. 2 is a functional block diagram of the camera-equipped moving body according to the first embodiment of the present invention.

【図3】本発明の第2の実施の形態におけるカメラ搭載
移動体の斜視図である。
FIG. 3 is a perspective view of a camera-mounted moving body according to a second embodiment of the present invention.

【図4】本発明の第2の実施の形態におけるカメラ搭載
移動体の機能ブロック図である。
FIG. 4 is a functional block diagram of a camera-mounted moving body according to a second embodiment of the present invention.

【図5】本発明の第3の実施の形態におけるカメラ搭載
移動体の斜視図である。
FIG. 5 is a perspective view of a camera-mounted moving body according to a third embodiment of the present invention.

【図6】本発明の第3の実施の形態におけるカメラ搭載
移動体の機能ブロック図である。
FIG. 6 is a functional block diagram of a camera-equipped moving body according to a third embodiment of the present invention.

【図7】本発明の第3の実施の形態におけるカメラ搭載
移動体の平面図である。
FIG. 7 is a plan view of a camera-mounted moving body according to a third embodiment of the present invention.

【図8】本発明の第3の実施の形態におけるカメラ搭載
移動体のカメラの速度と位置を表わす図である。
FIG. 8 is a diagram illustrating a speed and a position of a camera of a camera-equipped moving body according to a third embodiment of the present invention.

【図9】本発明の第4の実施の形態におけるカメラ搭載
移動体の斜視図である。
FIG. 9 is a perspective view of a camera-mounted moving body according to a fourth embodiment of the present invention.

【図10】本発明の第4の実施の形態におけるカメラ搭
載移動体の機能ブロック図である。
FIG. 10 is a functional block diagram of a camera-mounted moving body according to a fourth embodiment of the present invention.

【図11】本発明の第5の実施の形態におけるカメラ搭
載移動体の斜視図である。
FIG. 11 is a perspective view of a camera-mounted moving body according to a fifth embodiment of the present invention.

【図12】本発明の第5の実施の形態におけるカメラ搭
載移動体の機能ブロック図である。
FIG. 12 is a functional block diagram of a camera-mounted moving body according to a fifth embodiment of the present invention.

【図13】本発明の第6の実施の形態におけるカメラ搭
載移動体の機能ブロック図である。
FIG. 13 is a functional block diagram of a camera-equipped moving body according to a sixth embodiment of the present invention.

【図14】本発明の第7の実施の形態におけるカメラ搭
載移動体の斜視図である。
FIG. 14 is a perspective view of a camera-mounted moving body according to a seventh embodiment of the present invention.

【図15】本発明の第7の実施の形態におけるカメラ搭
載移動体のカメラの速度を表わす図である。
FIG. 15 is a diagram illustrating a camera speed of a camera-equipped moving body according to a seventh embodiment of the present invention.

【図16】本発明の第8の実施の形態におけるカメラ搭
載移動体の斜視図である。
FIG. 16 is a perspective view of a camera-mounted moving body according to an eighth embodiment of the present invention.

【図17】本発明の第9の実施の形態におけるカメラ搭
載移動体の機能ブロック図である。
FIG. 17 is a functional block diagram of a camera-mounted moving body according to a ninth embodiment of the present invention.

【図18】本発明の第10の実施の形態におけるカメラ
搭載移動体の斜視図である。
FIG. 18 is a perspective view of a camera-mounted moving body according to a tenth embodiment of the present invention.

【図19】本発明の第10の実施の形態におけるカメラ
搭載移動体の機能ブロック図である。
FIG. 19 is a functional block diagram of a camera-mounted moving body according to a tenth embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1,4,19 CCDカメラ 2,5,20 単軸ロボット 3 移動部 6 制御部 7 駆動モータ 8 車輪 9 エンコーダ 10 画像処理部 11,13 旋回機構 12,14 昇降機構 15,16 加速度センサ 17 撮像部移動制御部 18 速度センサ 21 ジャイロセンサ 22 3軸加速度センサ 23 3軸ジャイロセンサ 24 6自由度パラレルメカニズム 25 6自由度保持台 26 ボールジョイント 27 直動アクチュエータ 1,4,19 CCD camera 2,5,20 Single axis robot 3 Moving unit 6 Control unit 7 Drive motor 8 Wheel 9 Encoder 10 Image processing unit 11,13 Turning mechanism 12,14 Lifting mechanism 15,16 Acceleration sensor 17 Imaging unit Movement control unit 18 Speed sensor 21 Gyro sensor 22 3-axis acceleration sensor 23 3-axis gyro sensor 24 6-degree-of-freedom parallel mechanism 25 6-degree-of-freedom holding table 26 Ball joint 27 Linear actuator

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 移動部と、 前記移動部に取付けられた撮像部移動手段と、 前記撮像部移動手段に保持された撮像部と、 前記移動部が移動する速度を検知する検知手段と、 前記検知手段の出力に応じて、前記撮像部の環境に対す
る位置および方向が第1の時刻と第2の時刻とで同じに
なるように前記撮像部移動手段を制御する制御手段とを
備える、カメラ搭載移動体。
A moving unit; an imaging unit moving unit attached to the moving unit; an imaging unit held by the imaging unit moving unit; a detecting unit for detecting a moving speed of the moving unit; Control means for controlling the imaging unit moving means so that the position and direction of the imaging unit with respect to the environment are the same at a first time and a second time in accordance with the output of the detection means; Moving body.
【請求項2】 移動部と、 前記移動部に取付けられた撮像部移動手段と、 前記撮像部移動手段に保持された撮像部と、 前記撮像部の移動速度を検知する検知手段と、 前記検知手段の出力に応じて、前記撮像部の環境に対す
る位置および方向が第1の時刻と第2の時刻とで同じに
なるように前記撮像部移動手段を制御する制御手段とを
備える、カメラ搭載移動体。
A moving unit; an imaging unit moving unit attached to the moving unit; an imaging unit held by the imaging unit moving unit; a detecting unit for detecting a moving speed of the imaging unit; Control means for controlling the imaging section moving means so that the position and direction of the imaging section with respect to the environment are the same at a first time and a second time in accordance with the output of the means. body.
【請求項3】 前記制御手段は、前記第1の時刻と前記
第2の時刻とで前記撮像部を環境に対して同じ位置およ
び方向に置くために前記撮像部移動手段を制御する第1
の制御と、 前記第2の時刻と第3の時刻とで前記撮像部を環境に対
して異なる位置に置くために前記撮像部移動手段を制御
する第2の制御を行なうことを特徴とする請求項1また
は2に記載のカメラ搭載移動体。
3. The first control unit controls the imaging unit moving unit to place the imaging unit at the same position and direction with respect to the environment at the first time and the second time.
And performing second control for controlling the imaging unit moving means so as to place the imaging unit at a different position with respect to the environment at the second time and the third time. Item 3. The moving object mounted with a camera according to Item 1 or 2.
【請求項4】 前記カメラ搭載移動体はさらに前記撮像
部で撮像された画像を処理する画像処理部を有し、 前記画像処理部は、前記第1の制御で得られた画像を用
いて環境内の動物体を抽出する第1の画像処理を行な
い、 前記第1の画像処理の結果と前記第2の制御で得られた
画像を用いて移動体と環境内の特徴点との位置関係を求
める第2の画像処理を行なうことを特徴とする請求項3
に記載のカメラ搭載移動体。
4. The camera-mounted moving body further includes an image processing unit that processes an image picked up by the image pickup unit, and the image processing unit uses the image obtained by the first control to generate an environment. Performing a first image processing for extracting a moving object in the moving object, and using a result of the first image processing and an image obtained by the second control to determine a positional relationship between a moving object and a feature point in an environment. 4. The second image processing to be performed is performed.
A moving object equipped with a camera according to item 1.
【請求項5】 前記第1の制御と前記第2の制御を連続
して繰返し行なうことを特徴とする請求項3または4に
記載のカメラ搭載移動体。
5. The camera-mounted moving body according to claim 3, wherein the first control and the second control are continuously and repeatedly performed.
【請求項6】 少なくとも2つの撮像部と、 前記撮像部をそれぞれ保持し、移動させることができる
撮像部移動手段と、 前記撮像部移動手段が取付けられた移動部と、 前記移動部が移動する速度を検知する検知手段と、 前記検知手段の出力に応じて、少なくとも1つの前記撮
像部の環境に対する位置および方向が第1の時刻と第2
の時刻とで同じになるように前記撮像部移動手段を制御
する制御手段とを具備する、カメラ搭載移動体。
6. At least two imaging units, an imaging unit moving unit capable of holding and moving the imaging units, a moving unit to which the imaging unit moving unit is attached, and the moving unit moving Detecting means for detecting a speed; and a position and a direction of at least one of the imaging units with respect to an environment are set to a first time and a second time according to an output of the detecting means.
Control means for controlling the imaging unit moving means so as to be the same at the time of (c).
【請求項7】 少なくとも2つの撮像部と、 前記撮像部をそれぞれ保持し、移動させることができる
撮像部移動手段と、 前記撮像部移動手段が取付けられた移動部と、 前記撮像部の移動速度を検知する検知手段と、 前記検知手段の出力に応じて、少なくとも1つの前記撮
像部の環境に対する位置および方向が第1の時刻と第2
の時刻とで同じになるように前記撮像部移動手段を制御
する制御手段とを具備する、カメラ搭載移動体。
7. An at least two imaging units, an imaging unit moving unit capable of holding and moving each of the imaging units, a moving unit to which the imaging unit moving unit is attached, and a moving speed of the imaging unit And a position and a direction of at least one of the imaging units with respect to the environment are set at a first time and a second time according to an output of the detection unit.
Control means for controlling the imaging unit moving means so as to be the same at the time of (c).
【請求項8】 前記制御手段は、少なくとも1つの前記
撮像部の環境に対する位置および方向が前記第1の時刻
と前記第2の時刻の間で常に同じになるように前記撮像
部移動手段を制御することを特徴とする請求項6または
7に記載のカメラ搭載移動体。
8. The control unit controls the imaging unit moving unit such that a position and a direction of at least one of the imaging units with respect to an environment are always the same between the first time and the second time. The mobile object mounted with a camera according to claim 6 or 7, wherein
【請求項9】 前記少なくとも2つの撮像部は第1の撮
像部と第2の撮像部を含み、 前記カメラ搭載移動体はさらに前記少なくとも2つの撮
像部で撮像された画像を処理する画像処理部を有し、 前記画像処理部は、前記第1の撮像部で撮像された画像
を用いて環境内の動物体を抽出する第1の画像処理を行
ない、前記第1の画像処理の結果と前記第2の撮像部で
撮像された画像とを用いて前記移動体と環境内の特徴点
との位置関係を求める第2の画像処理を行ない、 前記第1の撮像部は前記第1の時刻と前記第2の時刻と
で環境に対する位置および方向が同じであり、前記第2
の撮像部は前記第1の撮像部とは異なることを特徴とす
る請求項6から8のいずれかに記載のカメラ搭載移動
体。
9. The at least two imaging units include a first imaging unit and a second imaging unit, and the camera-mounted moving body further processes an image captured by the at least two imaging units. The image processing unit performs first image processing for extracting a moving object in an environment using an image captured by the first imaging unit, and performs a result of the first image processing and the first image processing. Performing a second image processing for obtaining a positional relationship between the moving object and a feature point in an environment using an image captured by a second imaging unit, wherein the first imaging unit determines the first time and the second time. The position and the direction with respect to the environment are the same at the second time and the second time
9. The camera-equipped moving body according to claim 6, wherein the imaging unit is different from the first imaging unit.
【請求項10】 前記撮像部移動手段は、前記撮像部の
視野の光軸と前記移動部との間の距離を独立して変化さ
せることが可能な請求項6から9のいずれかに記載のカ
メラ搭載移動体。
10. The imaging unit according to claim 6, wherein the imaging unit moving unit can independently change a distance between an optical axis of a visual field of the imaging unit and the moving unit. Mobile with camera.
JP10016566A 1998-01-29 1998-01-29 Camera mounted mobile object Withdrawn JPH11213157A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10016566A JPH11213157A (en) 1998-01-29 1998-01-29 Camera mounted mobile object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10016566A JPH11213157A (en) 1998-01-29 1998-01-29 Camera mounted mobile object

Publications (1)

Publication Number Publication Date
JPH11213157A true JPH11213157A (en) 1999-08-06

Family

ID=11919849

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10016566A Withdrawn JPH11213157A (en) 1998-01-29 1998-01-29 Camera mounted mobile object

Country Status (1)

Country Link
JP (1) JPH11213157A (en)

Cited By (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003343678A (en) * 2002-05-24 2003-12-03 Hiihaisuto Seiko Kk Multi-degree-of-freedom positioning mechanism of parallel rough/fine driving type
JP2011167790A (en) * 2010-02-17 2011-09-01 Kyoto Univ Mechanical structure equipped with drive unit
US8239992B2 (en) 2007-05-09 2012-08-14 Irobot Corporation Compact autonomous coverage robot
US8253368B2 (en) 2004-01-28 2012-08-28 Irobot Corporation Debris sensor for cleaning apparatus
US8368339B2 (en) 2001-01-24 2013-02-05 Irobot Corporation Robot confinement
US8374721B2 (en) 2005-12-02 2013-02-12 Irobot Corporation Robot system
US8380350B2 (en) 2005-12-02 2013-02-19 Irobot Corporation Autonomous coverage robot navigation system
US8386081B2 (en) 2002-09-13 2013-02-26 Irobot Corporation Navigational control system for a robotic device
US8382906B2 (en) 2005-02-18 2013-02-26 Irobot Corporation Autonomous surface cleaning robot for wet cleaning
US8387193B2 (en) 2005-02-18 2013-03-05 Irobot Corporation Autonomous surface cleaning robot for wet and dry cleaning
US8390251B2 (en) 2004-01-21 2013-03-05 Irobot Corporation Autonomous robot auto-docking and energy management systems and methods
US8396592B2 (en) 2001-06-12 2013-03-12 Irobot Corporation Method and system for multi-mode coverage for an autonomous robot
US8412377B2 (en) 2000-01-24 2013-04-02 Irobot Corporation Obstacle following sensor scheme for a mobile robot
US8417383B2 (en) 2006-05-31 2013-04-09 Irobot Corporation Detecting robot stasis
WO2013051645A1 (en) * 2011-10-05 2013-04-11 株式会社ニコン Electronic apparatus and moving speed calculating system
US8418303B2 (en) 2006-05-19 2013-04-16 Irobot Corporation Cleaning robot roller processing
US8428778B2 (en) 2002-09-13 2013-04-23 Irobot Corporation Navigational control system for a robotic device
US8838274B2 (en) 2001-06-12 2014-09-16 Irobot Corporation Method and system for multi-mode coverage for an autonomous robot
US8874264B1 (en) 2004-07-07 2014-10-28 Irobot Corporation Celestial navigation system for an autonomous robot
US8930023B2 (en) 2009-11-06 2015-01-06 Irobot Corporation Localization by learning of wave-signal distributions
US8950038B2 (en) 2005-12-02 2015-02-10 Irobot Corporation Modular robot
US8972052B2 (en) 2004-07-07 2015-03-03 Irobot Corporation Celestial navigation system for an autonomous vehicle
US8978196B2 (en) 2005-12-02 2015-03-17 Irobot Corporation Coverage robot mobility
US9008835B2 (en) 2004-06-24 2015-04-14 Irobot Corporation Remote control scheduler and method for autonomous robotic device
US9038233B2 (en) 2001-01-24 2015-05-26 Irobot Corporation Autonomous floor-cleaning robot
US9128486B2 (en) 2002-01-24 2015-09-08 Irobot Corporation Navigational control system for a robotic device
US9360300B2 (en) 2004-03-29 2016-06-07 Irobot Corporation Methods and apparatus for position estimation using reflected light sources
US10314449B2 (en) 2010-02-16 2019-06-11 Irobot Corporation Vacuum brush
US10470629B2 (en) 2005-02-18 2019-11-12 Irobot Corporation Autonomous surface cleaning robot for dry cleaning
CN113163131A (en) * 2021-03-25 2021-07-23 维沃移动通信有限公司 Shooting auxiliary equipment, image pair acquisition calibration method and electronic equipment
CN113163129A (en) * 2021-03-25 2021-07-23 维沃移动通信有限公司 Shooting auxiliary equipment, image pair acquisition calibration method and electronic equipment
CN113965674A (en) * 2021-09-24 2022-01-21 安徽工程大学 Stereo model data acquisition device based on surround image shooting processing

Cited By (67)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9446521B2 (en) 2000-01-24 2016-09-20 Irobot Corporation Obstacle following sensor scheme for a mobile robot
US8412377B2 (en) 2000-01-24 2013-04-02 Irobot Corporation Obstacle following sensor scheme for a mobile robot
US9144361B2 (en) 2000-04-04 2015-09-29 Irobot Corporation Debris sensor for cleaning apparatus
US9582005B2 (en) 2001-01-24 2017-02-28 Irobot Corporation Robot confinement
US9038233B2 (en) 2001-01-24 2015-05-26 Irobot Corporation Autonomous floor-cleaning robot
US8368339B2 (en) 2001-01-24 2013-02-05 Irobot Corporation Robot confinement
US9622635B2 (en) 2001-01-24 2017-04-18 Irobot Corporation Autonomous floor-cleaning robot
US8396592B2 (en) 2001-06-12 2013-03-12 Irobot Corporation Method and system for multi-mode coverage for an autonomous robot
US8838274B2 (en) 2001-06-12 2014-09-16 Irobot Corporation Method and system for multi-mode coverage for an autonomous robot
US9104204B2 (en) 2001-06-12 2015-08-11 Irobot Corporation Method and system for multi-mode coverage for an autonomous robot
US9128486B2 (en) 2002-01-24 2015-09-08 Irobot Corporation Navigational control system for a robotic device
JP2003343678A (en) * 2002-05-24 2003-12-03 Hiihaisuto Seiko Kk Multi-degree-of-freedom positioning mechanism of parallel rough/fine driving type
US8386081B2 (en) 2002-09-13 2013-02-26 Irobot Corporation Navigational control system for a robotic device
US9949608B2 (en) 2002-09-13 2018-04-24 Irobot Corporation Navigational control system for a robotic device
US8428778B2 (en) 2002-09-13 2013-04-23 Irobot Corporation Navigational control system for a robotic device
US8390251B2 (en) 2004-01-21 2013-03-05 Irobot Corporation Autonomous robot auto-docking and energy management systems and methods
US9215957B2 (en) 2004-01-21 2015-12-22 Irobot Corporation Autonomous robot auto-docking and energy management systems and methods
US8854001B2 (en) 2004-01-21 2014-10-07 Irobot Corporation Autonomous robot auto-docking and energy management systems and methods
US8253368B2 (en) 2004-01-28 2012-08-28 Irobot Corporation Debris sensor for cleaning apparatus
US8378613B2 (en) 2004-01-28 2013-02-19 Irobot Corporation Debris sensor for cleaning apparatus
US9360300B2 (en) 2004-03-29 2016-06-07 Irobot Corporation Methods and apparatus for position estimation using reflected light sources
US9486924B2 (en) 2004-06-24 2016-11-08 Irobot Corporation Remote control scheduler and method for autonomous robotic device
US9008835B2 (en) 2004-06-24 2015-04-14 Irobot Corporation Remote control scheduler and method for autonomous robotic device
US8874264B1 (en) 2004-07-07 2014-10-28 Irobot Corporation Celestial navigation system for an autonomous robot
US8972052B2 (en) 2004-07-07 2015-03-03 Irobot Corporation Celestial navigation system for an autonomous vehicle
US9229454B1 (en) 2004-07-07 2016-01-05 Irobot Corporation Autonomous mobile robot system
US9223749B2 (en) 2004-07-07 2015-12-29 Irobot Corporation Celestial navigation system for an autonomous vehicle
US8387193B2 (en) 2005-02-18 2013-03-05 Irobot Corporation Autonomous surface cleaning robot for wet and dry cleaning
US8855813B2 (en) 2005-02-18 2014-10-07 Irobot Corporation Autonomous surface cleaning robot for wet and dry cleaning
US8392021B2 (en) 2005-02-18 2013-03-05 Irobot Corporation Autonomous surface cleaning robot for wet cleaning
US8382906B2 (en) 2005-02-18 2013-02-26 Irobot Corporation Autonomous surface cleaning robot for wet cleaning
US9445702B2 (en) 2005-02-18 2016-09-20 Irobot Corporation Autonomous surface cleaning robot for wet and dry cleaning
US8985127B2 (en) 2005-02-18 2015-03-24 Irobot Corporation Autonomous surface cleaning robot for wet cleaning
US10470629B2 (en) 2005-02-18 2019-11-12 Irobot Corporation Autonomous surface cleaning robot for dry cleaning
US8950038B2 (en) 2005-12-02 2015-02-10 Irobot Corporation Modular robot
US8380350B2 (en) 2005-12-02 2013-02-19 Irobot Corporation Autonomous coverage robot navigation system
US9144360B2 (en) 2005-12-02 2015-09-29 Irobot Corporation Autonomous coverage robot navigation system
US9149170B2 (en) 2005-12-02 2015-10-06 Irobot Corporation Navigating autonomous coverage robots
US8374721B2 (en) 2005-12-02 2013-02-12 Irobot Corporation Robot system
US9599990B2 (en) 2005-12-02 2017-03-21 Irobot Corporation Robot system
US8978196B2 (en) 2005-12-02 2015-03-17 Irobot Corporation Coverage robot mobility
US8954192B2 (en) 2005-12-02 2015-02-10 Irobot Corporation Navigating autonomous coverage robots
US10524629B2 (en) 2005-12-02 2020-01-07 Irobot Corporation Modular Robot
US9392920B2 (en) 2005-12-02 2016-07-19 Irobot Corporation Robot system
US8418303B2 (en) 2006-05-19 2013-04-16 Irobot Corporation Cleaning robot roller processing
US10244915B2 (en) 2006-05-19 2019-04-02 Irobot Corporation Coverage robots and associated cleaning bins
US9492048B2 (en) 2006-05-19 2016-11-15 Irobot Corporation Removing debris from cleaning robots
US9955841B2 (en) 2006-05-19 2018-05-01 Irobot Corporation Removing debris from cleaning robots
US9317038B2 (en) 2006-05-31 2016-04-19 Irobot Corporation Detecting robot stasis
US8417383B2 (en) 2006-05-31 2013-04-09 Irobot Corporation Detecting robot stasis
US8839477B2 (en) 2007-05-09 2014-09-23 Irobot Corporation Compact autonomous coverage robot
US11072250B2 (en) 2007-05-09 2021-07-27 Irobot Corporation Autonomous coverage robot sensing
US11498438B2 (en) 2007-05-09 2022-11-15 Irobot Corporation Autonomous coverage robot
US8239992B2 (en) 2007-05-09 2012-08-14 Irobot Corporation Compact autonomous coverage robot
US10070764B2 (en) 2007-05-09 2018-09-11 Irobot Corporation Compact autonomous coverage robot
US9480381B2 (en) 2007-05-09 2016-11-01 Irobot Corporation Compact autonomous coverage robot
US10299652B2 (en) 2007-05-09 2019-05-28 Irobot Corporation Autonomous coverage robot
US8438695B2 (en) 2007-05-09 2013-05-14 Irobot Corporation Autonomous coverage robot sensing
US8930023B2 (en) 2009-11-06 2015-01-06 Irobot Corporation Localization by learning of wave-signal distributions
US10314449B2 (en) 2010-02-16 2019-06-11 Irobot Corporation Vacuum brush
US11058271B2 (en) 2010-02-16 2021-07-13 Irobot Corporation Vacuum brush
JP2011167790A (en) * 2010-02-17 2011-09-01 Kyoto Univ Mechanical structure equipped with drive unit
WO2013051645A1 (en) * 2011-10-05 2013-04-11 株式会社ニコン Electronic apparatus and moving speed calculating system
CN113163131A (en) * 2021-03-25 2021-07-23 维沃移动通信有限公司 Shooting auxiliary equipment, image pair acquisition calibration method and electronic equipment
CN113163129A (en) * 2021-03-25 2021-07-23 维沃移动通信有限公司 Shooting auxiliary equipment, image pair acquisition calibration method and electronic equipment
CN113965674A (en) * 2021-09-24 2022-01-21 安徽工程大学 Stereo model data acquisition device based on surround image shooting processing
CN113965674B (en) * 2021-09-24 2023-06-27 安徽工程大学 Stereoscopic model data acquisition device based on surrounding image shooting processing

Similar Documents

Publication Publication Date Title
JPH11213157A (en) Camera mounted mobile object
US10659768B2 (en) System and method for virtually-augmented visual simultaneous localization and mapping
KR101725060B1 (en) Apparatus for recognizing location mobile robot using key point based on gradient and method thereof
Murray Recovering range using virtual multicamera stereo
Prusak et al. Pose estimation and map building with a time-of-flight-camera for robot navigation
CN109079799B (en) Robot perception control system and control method based on bionics
JP2004198211A (en) Apparatus for monitoring vicinity of mobile object
Nair et al. Moving obstacle detection from a navigating robot
EP1462993A2 (en) Automatic work apparatus and automatic work control program
US20090297036A1 (en) Object detection on a pixel plane in a digital image sequence
CN101384402A (en) Mobile robot
Chahl et al. Visual computation of egomotion using an image interpolation technique
Nagumo et al. Human following behavior of an autonomous mobile robot using light-emitting device
Yuan et al. Fast localization and tracking using event sensors
JP2559939B2 (en) Three-dimensional information input device
Rougeaux et al. Binocular tracking based on virtual horopters
JP5062626B2 (en) Object identification device
JP2686685B2 (en) An active camera search system for object manipulation by robots
CN111798496B (en) Visual locking method and device
WO2019220740A1 (en) Autonomous movement device and autonomous movement system
JP2853283B2 (en) Omnidirectional observation device
Rougeaux et al. Tracking a moving object with a stereo camera head
Zhao et al. Active visual mapping system for digital operation environment of bridge crane
Shimada et al. High-speed 3-D measurement of a moving object with visual servo
CN114018253B (en) Robot with vision positioning function and positioning method

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20050405