JP2002288637A - Environmental information forming method - Google Patents
Environmental information forming methodInfo
- Publication number
- JP2002288637A JP2002288637A JP2001084126A JP2001084126A JP2002288637A JP 2002288637 A JP2002288637 A JP 2002288637A JP 2001084126 A JP2001084126 A JP 2001084126A JP 2001084126 A JP2001084126 A JP 2001084126A JP 2002288637 A JP2002288637 A JP 2002288637A
- Authority
- JP
- Japan
- Prior art keywords
- camera
- information
- robot
- distance
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 24
- 230000007613 environmental effect Effects 0.000 title abstract description 8
- 238000013507 mapping Methods 0.000 claims description 3
- 230000000007 visual effect Effects 0.000 abstract description 4
- 230000015572 biosynthetic process Effects 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 4
- 230000010365 information processing Effects 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
Landscapes
- Image Processing (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Image Analysis (AREA)
- Manipulator (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、CRTなどの画像
表示装置に表示された画像情報をもとにロボットなどの
移動体を遠隔操縦するに際し、操縦者が把握し易い移動
体の周囲状況を提供するための環境情報作成方法に関す
る。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for remotely controlling a moving object such as a robot based on image information displayed on an image display device such as a CRT. The present invention relates to a method for creating environmental information for providing.
【0002】[0002]
【従来の技術】ロボットに取り付けたビデオカメラが撮
像したロボットの前方の様子をCRTや液晶パネルなど
の画像表示装置に映し出し、その画像を目視しながらロ
ボットを遠隔操縦する場合の問題点として、ビデオカメ
ラの視野角が狭いことや、距離感をつかみ難いこと等が
上げられる。つまり、ビデオカメラによる画像表示装置
上の画像だけでロボットの周囲の状況を的確に判断する
ことはきわめて困難であり、それが遠隔操縦ロボットの
実用化を妨げる1つの要因となっていた。2. Description of the Related Art A video camera mounted on a robot displays an image of the front of the robot on an image display device such as a CRT or a liquid crystal panel. The narrow viewing angle of the camera, the difficulty in grasping the distance, and the like are raised. In other words, it is extremely difficult to accurately judge the situation around the robot only from the image on the image display device using the video camera, which has been one factor that hinders the practical use of the remote control robot.
【0003】超音波センサ或いはレーザーレーダーなど
を用いて得た距離情報を併用することも考えられるが、
超音波センサ或いはレーザーレーダーなどで得られる距
離情報は、基本的に障害物上の点情報でしかなく、これ
をそのままモニター上に表示しても、その画像からロボ
ットの周囲状況を操縦者が把握することは極めて困難で
ある。It is conceivable to use distance information obtained by using an ultrasonic sensor or a laser radar, etc.
The distance information obtained by ultrasonic sensors or laser radar is basically only point information on obstacles. Even if this is displayed on the monitor as it is, the operator can grasp the surrounding situation of the robot from the image It is extremely difficult to do.
【0004】また超音波センサは、指向性が比較的高
く、ロボットの全周囲を認識するためには、放射状に音
波を発するように多数のセンサをロボットの周囲に装着
するか、或いはセンサを移動させて走査しなければなら
ないため、処理が複雑化し、システムが高額となりがち
である。Also, the ultrasonic sensor has a relatively high directivity, and in order to recognize the entire circumference of the robot, a large number of sensors are mounted around the robot so as to emit sound waves in a radial manner, or the sensors are moved so as to emit sound waves radially. Since scanning must be performed, the processing is complicated and the system tends to be expensive.
【0005】[0005]
【発明が解決しようとする課題】本発明は、このような
従来技術の問題点を解消すべく案出されたものであり、
その主な目的は、ロボットの環境情報の作成を簡略化
し、かつ操縦者に分かり易く表示することのできる環境
情報作成方法を提供することにある。SUMMARY OF THE INVENTION The present invention has been devised to solve such problems of the prior art.
A main object of the present invention is to provide a method for creating environment information that simplifies creation of environment information of a robot and that can be displayed in a manner that is easy for a pilot to understand.
【0006】[0006]
【課題を解決するための手段】このような目的を果たす
ために、本発明においては、移動体に搭載されたカメラ
で撮像した前方の画像中の物体表面の各点のカメラから
の距離データを求める過程と、該距離データをクラスタ
リング処理して物体を抽出する過程と、物体クラスタの
データを時系列的に記憶して障害物データベースを作成
する過程と、障害物データベースに蓄積された物体の情
報に基づいてカメラの視野内の物体とカメラの視野外の
物体と移動体との位置関係を同一の環境表示画面上に表
示する処理過程とを含むことを特徴とする環境情報作成
方法を提供することとした。In order to achieve the above object, in the present invention, distance data from a camera for each point on the surface of an object in a forward image picked up by a camera mounted on a moving object is obtained. Obtaining the object, extracting the object by performing a clustering process on the distance data, storing the object cluster data in chronological order to create an obstacle database, and acquiring information on the object stored in the obstacle database. Displaying a positional relationship between an object in the field of view of the camera, an object outside the field of view of the camera, and the moving object on the same environment display screen based on the information processing method. I decided that.
【0007】このようにすれば、CCDカメラなどから
の画像情報から得た距離情報を含む物体情報の過去の履
歴を管理し、それらを表示装置の画面上に視覚表示する
ことができるので、操縦者は、ロボットの前方を撮像す
るカメラの視野外の障害物情報をも知ることができる。In this manner, the past history of object information including the distance information obtained from the image information from the CCD camera or the like can be managed and visually displayed on the screen of the display device. The person can also know the obstacle information outside the field of view of the camera that images the front of the robot.
【0008】特に、環境表示画面上に各物体を立体表示
する処理過程を含むこととしたり、カメラから得た明度
情報を、物体の三次元モデルにマッピングする処理過程
を含むこととしたり、複数の表示画面上に互いに異なる
形態で表示される同一物体を同一色で表示する処理過程
を含むこととしたりすれば、ロボットの周囲の状況をよ
り一層分かり易く操縦者に示すことができる。In particular, the method may include a process of stereoscopically displaying each object on an environment display screen, a process of mapping brightness information obtained from a camera onto a three-dimensional model of the object, and a plurality of processes. By including a process of displaying the same object displayed in a different form on the display screen in the same color, the situation around the robot can be more easily understood to the operator.
【0009】[0009]
【発明の実施の形態】以下に添付の図面を参照して本発
明について詳細に説明する。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention will be described below in detail with reference to the accompanying drawings.
【0010】本発明による環境情報処理方法が適用され
る装置は、図1に示すように、移動体としてのロボット
に搭載されたCCDカメラなどの画像データ出力装置1
と、入力画像データから障害物データを抽出し且つ記憶
する障害物データ処理装置2と、障害物の位置を視覚的
に表す環境表示装置3とからなっている。As shown in FIG. 1, an apparatus to which an environmental information processing method according to the present invention is applied is an image data output apparatus 1 such as a CCD camera mounted on a robot as a moving body.
And an obstacle data processing device 2 that extracts and stores obstacle data from input image data, and an environment display device 3 that visually indicates the position of the obstacle.
【0011】この装置における処理過程について図2を
参照して以下に説明する。まず、2つのカメラの画像を
とらえる2眼立体視システムなどにより、図3に示すよ
うな障害物10a〜10eを撮像した明度画像を時系列
的に得ると共に(ステップ1)、画素毎の三次元距離デ
ータを得る(ステップ2)。そしてこの距離データを、
例えばヒストグラム処理することにより、障害物のクラ
スタリングを行う(ステップ3)。なお、この場合のカ
メラの画像は、無限遠方の一点を消失点とする透視図で
表され、ロボットが前進するに連れて、図3−aに示す
画像から図3−bに示す画像へ連続的に変化し、カメラ
の視野を外れた障害物10a〜10cは画面に映らなく
なる。The processing steps in this apparatus will be described below with reference to FIG. First, a brightness image obtained by capturing the obstacles 10a to 10e as shown in FIG. 3 is obtained in time series by a binocular stereoscopic vision system or the like that captures images of two cameras (step 1), and a three-dimensional image for each pixel is obtained. Obtain distance data (step 2). And this distance data,
For example, clustering of obstacles is performed by performing histogram processing (step 3). The image of the camera in this case is represented by a perspective view in which one point at infinity is a vanishing point. As the robot moves forward, the image shown in FIG. Obstacles 10a to 10c that have changed from the viewpoint and are out of the field of view of the camera are not displayed on the screen.
【0012】次いで障害物クラスタの範囲内の画素を画
像上から抽出し(ステップ4)、これに画素毎の三次元
距離データを対応させることにより、各障害物の三次元
データを得る(ステップ5)。Next, pixels within the range of the obstacle cluster are extracted from the image (step 4), and three-dimensional distance data for each pixel is made to correspond to the extracted pixels, thereby obtaining three-dimensional data of each obstacle (step 5). ).
【0013】さらに、各障害物クラスタの平均位置や分
布、画像上での矩形化データ、三次元データなどを表示
用記憶装置に保存して形成した障害物データベースを、
ロボットの進行に従って逐次更新し、これによってロボ
ットの進路上の障害物マップを作成する(ステップ
6)。Further, an obstacle database formed by storing the average position and distribution of each obstacle cluster, rectangular data on an image, three-dimensional data, and the like in a display storage device is provided.
The map is sequentially updated according to the progress of the robot, and thereby an obstacle map on the path of the robot is created (step 6).
【0014】上記データに基づいて、ロボットの周囲状
況を操縦者が把握し易いように画像処理を行い、その結
果をCRTなどの環境画像表示装置に表示する(ステッ
プ7)。Based on the data, image processing is performed so that the operator can easily grasp the surroundings of the robot, and the result is displayed on an environmental image display device such as a CRT (step 7).
【0015】この際、ロボットに搭載したカメラが実写
した画像の視野角内の障害物10d、10eと、視野を
外れた位置にある障害物10b、10cの立体輪郭画像
とを、一画面に同時に表示することにより、操縦者は、
カメラが撮像可能な視野角範囲外にある物体について
も、その存在を容易に把握することができることとなる
(図4参照)。また、カメラが捕らえた生の外部環境の
画像と、画像処理した画像とを、同時に操縦者に見せる
ことにより、より一層容易に遠隔操縦を行えるようにす
ることができる。なお、図4に示したものは、処理を簡
略化するために障害物の輪郭を矩形で囲った線だけで表
示するものとしたが、このような輪郭線だけの表示ばか
りでなく、カメラが実写した画像から明度情報が同時に
得られるので、この明度情報をピクセル毎の三次元距離
データに付加することにより(テクスチャマッピン
グ)、より一層分かり易い立体表示を行うこともでき
る。At this time, the obstacles 10d and 10e within the viewing angle of the image photographed by the camera mounted on the robot and the three-dimensional contour images of the obstacles 10b and 10c located outside the field of view are simultaneously displayed on one screen. By displaying, the pilot can
The presence of an object outside the viewing angle range that can be captured by the camera can be easily grasped (see FIG. 4). In addition, by simultaneously displaying the image of the raw external environment captured by the camera and the image that has been subjected to the image processing to the operator, remote control can be performed more easily. In FIG. 4, the outline of the obstacle is displayed only by a line surrounded by a rectangle in order to simplify the processing, but not only such an outline but also a camera is displayed. Since the brightness information is simultaneously obtained from the actually photographed image, by adding the brightness information to the three-dimensional distance data for each pixel (texture mapping), a more intuitive three-dimensional display can be performed.
【0016】また、当然ながら、障害物の二次元的な位
置も抽出されているので、ロボットが通過した道筋上で
自己の視覚情報に基づいて得たデータを環境マップ上に
履歴として記憶させることにより、ロボットの進路地図
を移動と共に作成し、かつ平面地図として表示すること
もできる。Naturally, since the two-dimensional position of the obstacle is also extracted, the data obtained on the path through which the robot has passed based on its own visual information is stored as a history on an environment map. Thus, the route map of the robot can be created together with the movement and displayed as a planar map.
【0017】さらに、距離データに基づいて例えば近距
離を赤く、遠距離を青くするなど、距離に応じた色分け
を施すことにより、距離感をつかみ易くすることができ
るし、カメラが実写した画像の表示色と環境画像の表示
色とを揃えることにより、両者の同一性を認識し易くし
得るので、ロボットと障害物との相対位置関係を把握し
易くすることもできる。[0017] Further, by performing color coding according to the distance based on the distance data, for example, red for a short distance and blue for a long distance, the sense of distance can be easily grasped. By aligning the display color and the display color of the environmental image, it is possible to easily recognize the sameness of the two, and it is also possible to easily grasp the relative positional relationship between the robot and the obstacle.
【0018】次に、障害物のデータをどの程度の範囲ま
で履歴として残すかについての一例を、2眼立体視シス
テムの距離精度を基準にして求める手法を説明する。Next, an example of the extent to which the data of an obstacle is to be retained as a history as a history will be described with reference to a method of obtaining the distance accuracy of a binocular stereoscopic system as a reference.
【0019】2眼立体視システムの距離精度Δrは、一
般に次式で求められる。The distance accuracy Δr of the binocular stereoscopic system is generally obtained by the following equation.
【0020】Δr=Δd(ur2/bf)Δr = Δd (ur 2 / bf)
【0021】但し、Δd:視差分解能(例えば1ピクセ
ルの1/10のサブピクセルまでの視差を算出する場合
は0.1)、u:1ピクセルのサイズ、r:視点からの
距離、b:2つのカメラ間の距離(2台のカメラの視線
は互いに平行とする)、f:焦点距離、とする。Here, Δd: parallax resolution (for example, 0.1 when calculating parallax up to 1/10 sub-pixel of one pixel), u: size of one pixel, r: distance from viewpoint, b: 2 The distance between the two cameras (the lines of sight of the two cameras are parallel to each other) and f: focal length.
【0022】例えば、uを9.9μm、bを70mm、
fを6mm、Δdを1とすると、rとΔrとの関係は図
5のようになる。For example, u is 9.9 μm, b is 70 mm,
If f is 6 mm and Δd is 1, the relationship between r and Δr is as shown in FIG.
【0023】従って、例えば許容誤差を50cmと想定
した場合、rは約4.6mとなるので、履歴範囲として
ロボットを中心とした半径4.6m程度に設定すること
が実用上の一つの目安となる。そしてこの値を基準にし
て、ロボットの走行速度や加速能力、並びにCPUの処
理速度を加味して履歴範囲を定めると良い。Therefore, for example, when the allowable error is assumed to be 50 cm, r is about 4.6 m. Therefore, it is practically set to be about 4.6 m in radius with the center of the robot as the history range. Become. Then, based on this value, the history range may be determined in consideration of the traveling speed and acceleration ability of the robot and the processing speed of the CPU.
【0024】なお、距離データを得るには、2眼立体視
システムばかりでなく、例えば特開昭60−85897
号公報に開示された技術を適用することもできる。また
本発明は、屋外への適用も可能であることは言うまでも
ない。In order to obtain the distance data, not only the binocular stereoscopic system but also, for example, Japanese Patent Application Laid-Open No. 60-85897.
The technology disclosed in Japanese Patent Application Laid-Open Publication No. H10-26095 can also be applied. Needless to say, the present invention can be applied outdoors.
【0025】[0025]
【発明の効果】このように本発明によれば、前方を撮像
するカメラの視野角外の障害物を視覚的に表示すること
が可能となり、ロボットの周囲の状況を容易に且つ的確
に遠隔操縦者が把握することができるので、ロボットの
遠隔操縦をより一層容易化する上に多大な効果を奏する
ことができる。As described above, according to the present invention, it is possible to visually display an obstacle outside the field of view of a camera for imaging the front, and to easily and accurately remotely control a situation around the robot. Therefore, the remote control of the robot can be further facilitated, and a great effect can be achieved.
【図1】本発明が適用される装置構成のブロック図FIG. 1 is a block diagram of a device configuration to which the present invention is applied.
【図2】本発明の処理フロー図FIG. 2 is a processing flowchart of the present invention.
【図3】カメラが撮像した画像を表示した画面の概念図FIG. 3 is a conceptual diagram of a screen displaying an image captured by a camera.
【図4】画像をデータ処理した結果を表示した画面の概
念図FIG. 4 is a conceptual diagram of a screen displaying a result of data processing of an image.
【図5】2眼立体視システムの距離精度Δrとレンズか
らの距離との関係線図FIG. 5 is a relationship diagram between the distance accuracy Δr of the binocular stereoscopic vision system and the distance from the lens.
1 画像データ処理装置 2 障害物データ処理装置 3 表示装置 10a〜10e 障害物 DESCRIPTION OF SYMBOLS 1 Image data processing device 2 Obstacle data processing device 3 Display device 10a-10e Obstacle
Claims (4)
方の画像中の物体表面の各点のカメラからの距離データ
を求める過程と、 該距離データをクラスタリング処理して画像中の物体を
抽出する過程と、 物体クラスタのデータを時系列的に記憶して障害物デー
タベースを作成する過程と、 障害物データベースに蓄積された物体の情報に基づいて
カメラの視野内の物体とカメラの視野外の物体と移動体
との位置関係を同一の環境表示画面上に表示する処理過
程とを含むことを特徴とする環境情報作成方法。1. A process of obtaining distance data from a camera for each point on the surface of an object in a forward image picked up by a camera mounted on a moving object, and extracting an object in the image by performing a clustering process on the distance data. Creating an obstacle database by chronologically storing the data of the object cluster, and creating an obstacle database based on the information of the objects stored in the obstacle database. Displaying a positional relationship between the object and the moving object on the same environment display screen.
処理過程を含むことを特徴とする請求項1に記載の環境
情報作成方法。2. The environment information creating method according to claim 1, further comprising a process of stereoscopically displaying each object on an environment display screen.
元モデルにマッピングする処理過程を含むことを特徴と
する請求項1若しくは2に記載の環境情報作成方法。3. The method according to claim 1, further comprising the step of mapping brightness information obtained from the camera to a three-dimensional model of the object.
表示される同一物体を同一色で表示する処理過程を含む
ことを特徴とする請求項1〜3のいずれかに記載の環境
情報作成方法。4. The environment information creating method according to claim 1, further comprising a process of displaying the same object displayed in a different form on a plurality of display screens in the same color. .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001084126A JP2002288637A (en) | 2001-03-23 | 2001-03-23 | Environmental information forming method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001084126A JP2002288637A (en) | 2001-03-23 | 2001-03-23 | Environmental information forming method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2002288637A true JP2002288637A (en) | 2002-10-04 |
Family
ID=18939843
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001084126A Pending JP2002288637A (en) | 2001-03-23 | 2001-03-23 | Environmental information forming method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2002288637A (en) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004240940A (en) * | 2003-02-07 | 2004-08-26 | Samsung Kwangju Electronics Co Ltd | Robot cleaner position recognition sign detecting method and robot cleaner applying same detecting method |
JP2004326264A (en) * | 2003-04-22 | 2004-11-18 | Matsushita Electric Works Ltd | Obstacle detecting device and autonomous mobile robot using the same and obstacle detecting method and obstacle detecting program |
JP2008254150A (en) * | 2007-04-09 | 2008-10-23 | Denso Wave Inc | Teaching method and teaching device of robot |
JP2010134499A (en) * | 2008-12-02 | 2010-06-17 | Mitsubishi Electric Corp | Remote place image display device, remote control apparatus, vehicle control apparatus, remote control system, remote control method, remote control program, vehicle control program, remote place image display method, and remote place image display program |
JP2013111672A (en) * | 2011-11-25 | 2013-06-10 | Chiba Inst Of Technology | Obtaining system for environment information using unmanned traveling body |
JP2013544382A (en) * | 2010-09-03 | 2013-12-12 | アルデバラン ロボティクス | Mobile robot |
JP2019084615A (en) * | 2017-11-06 | 2019-06-06 | トヨタ自動車株式会社 | Master handling device |
WO2019188697A1 (en) * | 2018-03-27 | 2019-10-03 | Groove X株式会社 | Autonomous action robot, data supply device, and data supply program |
JP2021036451A (en) * | 2014-04-25 | 2021-03-04 | ソニー株式会社 | Information processor, information processing method, and information processing program |
KR20220061781A (en) * | 2020-11-06 | 2022-05-13 | 베어 로보틱스, 인크. | Method, system, and non-transitory computer-readable recording medium for controlling a destination of a robot |
-
2001
- 2001-03-23 JP JP2001084126A patent/JP2002288637A/en active Pending
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004240940A (en) * | 2003-02-07 | 2004-08-26 | Samsung Kwangju Electronics Co Ltd | Robot cleaner position recognition sign detecting method and robot cleaner applying same detecting method |
JP2004326264A (en) * | 2003-04-22 | 2004-11-18 | Matsushita Electric Works Ltd | Obstacle detecting device and autonomous mobile robot using the same and obstacle detecting method and obstacle detecting program |
JP2008254150A (en) * | 2007-04-09 | 2008-10-23 | Denso Wave Inc | Teaching method and teaching device of robot |
JP2010134499A (en) * | 2008-12-02 | 2010-06-17 | Mitsubishi Electric Corp | Remote place image display device, remote control apparatus, vehicle control apparatus, remote control system, remote control method, remote control program, vehicle control program, remote place image display method, and remote place image display program |
JP2013544382A (en) * | 2010-09-03 | 2013-12-12 | アルデバラン ロボティクス | Mobile robot |
KR20140031159A (en) * | 2010-09-03 | 2014-03-12 | 알데바란 로보틱스 | Mobile robot |
JP2017041262A (en) * | 2010-09-03 | 2017-02-23 | ソフトバンク・ロボティクス・ヨーロッパSoftbank Robotics Europe | Control apparatus for mobile robot, system for mobile robot, and method for controlling mobile robot |
JP2013111672A (en) * | 2011-11-25 | 2013-06-10 | Chiba Inst Of Technology | Obtaining system for environment information using unmanned traveling body |
JP7078093B2 (en) | 2014-04-25 | 2022-05-31 | ソニーグループ株式会社 | Information processing equipment, information processing methods and information processing programs |
JP2022111131A (en) * | 2014-04-25 | 2022-07-29 | ソニーグループ株式会社 | Flight control method, information processing apparatus and computer program |
JP2021036451A (en) * | 2014-04-25 | 2021-03-04 | ソニー株式会社 | Information processor, information processing method, and information processing program |
US11237560B2 (en) | 2014-04-25 | 2022-02-01 | Sony Corporation | Control device, imaging device, control method, imaging method, and computer program |
JP2019084615A (en) * | 2017-11-06 | 2019-06-06 | トヨタ自動車株式会社 | Master handling device |
WO2019188697A1 (en) * | 2018-03-27 | 2019-10-03 | Groove X株式会社 | Autonomous action robot, data supply device, and data supply program |
KR20220061781A (en) * | 2020-11-06 | 2022-05-13 | 베어 로보틱스, 인크. | Method, system, and non-transitory computer-readable recording medium for controlling a destination of a robot |
KR102521970B1 (en) | 2020-11-06 | 2023-04-13 | 베어 로보틱스, 인크. | Method, system, and non-transitory computer-readable recording medium for controlling a destination of a robot |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111062873B (en) | Parallax image splicing and visualization method based on multiple pairs of binocular cameras | |
CN109348119B (en) | Panoramic monitoring system | |
CN110335292B (en) | Method, system and terminal for realizing simulation scene tracking based on picture tracking | |
US20070076090A1 (en) | Device for generating three dimensional surface models of moving objects | |
JP2018511098A5 (en) | ||
US20160210785A1 (en) | Augmented reality system and method for positioning and mapping | |
JPH09187038A (en) | Three-dimensional shape extract device | |
EP3451285B1 (en) | Distance measurement device for motion picture camera focus applications | |
CN108093244B (en) | Remote follow-up stereoscopic vision system | |
JP2010504711A (en) | Video surveillance system and method for tracking moving objects in a geospatial model | |
JP2010109452A (en) | Vehicle surrounding monitoring device and vehicle surrounding monitoring method | |
JP4306006B2 (en) | Three-dimensional data input method and apparatus | |
CN109636763B (en) | Intelligent compound eye monitoring system | |
CN110838164A (en) | Monocular image three-dimensional reconstruction method, system and device based on object point depth | |
CN113965721B (en) | Alignment method for image and depth transmission monitoring system | |
JP2002288637A (en) | Environmental information forming method | |
CN112207821A (en) | Target searching method of visual robot and robot | |
JP2004507180A (en) | Stereoscopic image deformation correction method and system | |
KR20120108256A (en) | Robot fish localization system using artificial markers and method of the same | |
JP4581512B2 (en) | Three-dimensional image processing apparatus, optical axis adjustment method, and optical axis adjustment support method | |
WO2003021967A2 (en) | Image fusion systems | |
JPH0795621A (en) | Image recording and reproducing device | |
JPH09322053A (en) | Image pickup method for object in automatic image pickup camera system | |
JP2013200840A (en) | Video processing device, video processing method, video processing program, and video display device | |
Yang et al. | Seeing as it happens: Real time 3D video event visualization |