JP2002288637A - Environmental information forming method - Google Patents

Environmental information forming method

Info

Publication number
JP2002288637A
JP2002288637A JP2001084126A JP2001084126A JP2002288637A JP 2002288637 A JP2002288637 A JP 2002288637A JP 2001084126 A JP2001084126 A JP 2001084126A JP 2001084126 A JP2001084126 A JP 2001084126A JP 2002288637 A JP2002288637 A JP 2002288637A
Authority
JP
Japan
Prior art keywords
camera
information
robot
distance
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001084126A
Other languages
Japanese (ja)
Inventor
Shinichi Matsunaga
慎一 松永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2001084126A priority Critical patent/JP2002288637A/en
Publication of JP2002288637A publication Critical patent/JP2002288637A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Image Analysis (AREA)
  • Manipulator (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an environmental information forming method, capable of simplifying formation of environmental information of a robot and displaying it to an operator in easy to understand manner. SOLUTION: This environmental information forming method includes a process of find a distance data from a camera of each point of an object surface in a front image photographed by a camera loaded on a moving body, a process to extract the object by clustering-processing the distance date, a process to form an obstruction data base by memorizing a data of an object cluster in time series and a processing process for displaying the positional relation of the object in the visual field of the camera, the object out of the visual field of the camera and the moving body in accordance with information of the object accumulated in the obstruction data base on the same environment display screen. Consequently, since it is possible to control past history of the object information, including the distance information provided from the image information from a CCD camera, etc., and visually display them on the screen of the display device, it is possible for the operator to know also obstruction information out of the visual field of the camera to photograph the front of the robot.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、CRTなどの画像
表示装置に表示された画像情報をもとにロボットなどの
移動体を遠隔操縦するに際し、操縦者が把握し易い移動
体の周囲状況を提供するための環境情報作成方法に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for remotely controlling a moving object such as a robot based on image information displayed on an image display device such as a CRT. The present invention relates to a method for creating environmental information for providing.

【0002】[0002]

【従来の技術】ロボットに取り付けたビデオカメラが撮
像したロボットの前方の様子をCRTや液晶パネルなど
の画像表示装置に映し出し、その画像を目視しながらロ
ボットを遠隔操縦する場合の問題点として、ビデオカメ
ラの視野角が狭いことや、距離感をつかみ難いこと等が
上げられる。つまり、ビデオカメラによる画像表示装置
上の画像だけでロボットの周囲の状況を的確に判断する
ことはきわめて困難であり、それが遠隔操縦ロボットの
実用化を妨げる1つの要因となっていた。
2. Description of the Related Art A video camera mounted on a robot displays an image of the front of the robot on an image display device such as a CRT or a liquid crystal panel. The narrow viewing angle of the camera, the difficulty in grasping the distance, and the like are raised. In other words, it is extremely difficult to accurately judge the situation around the robot only from the image on the image display device using the video camera, which has been one factor that hinders the practical use of the remote control robot.

【0003】超音波センサ或いはレーザーレーダーなど
を用いて得た距離情報を併用することも考えられるが、
超音波センサ或いはレーザーレーダーなどで得られる距
離情報は、基本的に障害物上の点情報でしかなく、これ
をそのままモニター上に表示しても、その画像からロボ
ットの周囲状況を操縦者が把握することは極めて困難で
ある。
It is conceivable to use distance information obtained by using an ultrasonic sensor or a laser radar, etc.
The distance information obtained by ultrasonic sensors or laser radar is basically only point information on obstacles. Even if this is displayed on the monitor as it is, the operator can grasp the surrounding situation of the robot from the image It is extremely difficult to do.

【0004】また超音波センサは、指向性が比較的高
く、ロボットの全周囲を認識するためには、放射状に音
波を発するように多数のセンサをロボットの周囲に装着
するか、或いはセンサを移動させて走査しなければなら
ないため、処理が複雑化し、システムが高額となりがち
である。
Also, the ultrasonic sensor has a relatively high directivity, and in order to recognize the entire circumference of the robot, a large number of sensors are mounted around the robot so as to emit sound waves in a radial manner, or the sensors are moved so as to emit sound waves radially. Since scanning must be performed, the processing is complicated and the system tends to be expensive.

【0005】[0005]

【発明が解決しようとする課題】本発明は、このような
従来技術の問題点を解消すべく案出されたものであり、
その主な目的は、ロボットの環境情報の作成を簡略化
し、かつ操縦者に分かり易く表示することのできる環境
情報作成方法を提供することにある。
SUMMARY OF THE INVENTION The present invention has been devised to solve such problems of the prior art.
A main object of the present invention is to provide a method for creating environment information that simplifies creation of environment information of a robot and that can be displayed in a manner that is easy for a pilot to understand.

【0006】[0006]

【課題を解決するための手段】このような目的を果たす
ために、本発明においては、移動体に搭載されたカメラ
で撮像した前方の画像中の物体表面の各点のカメラから
の距離データを求める過程と、該距離データをクラスタ
リング処理して物体を抽出する過程と、物体クラスタの
データを時系列的に記憶して障害物データベースを作成
する過程と、障害物データベースに蓄積された物体の情
報に基づいてカメラの視野内の物体とカメラの視野外の
物体と移動体との位置関係を同一の環境表示画面上に表
示する処理過程とを含むことを特徴とする環境情報作成
方法を提供することとした。
In order to achieve the above object, in the present invention, distance data from a camera for each point on the surface of an object in a forward image picked up by a camera mounted on a moving object is obtained. Obtaining the object, extracting the object by performing a clustering process on the distance data, storing the object cluster data in chronological order to create an obstacle database, and acquiring information on the object stored in the obstacle database. Displaying a positional relationship between an object in the field of view of the camera, an object outside the field of view of the camera, and the moving object on the same environment display screen based on the information processing method. I decided that.

【0007】このようにすれば、CCDカメラなどから
の画像情報から得た距離情報を含む物体情報の過去の履
歴を管理し、それらを表示装置の画面上に視覚表示する
ことができるので、操縦者は、ロボットの前方を撮像す
るカメラの視野外の障害物情報をも知ることができる。
In this manner, the past history of object information including the distance information obtained from the image information from the CCD camera or the like can be managed and visually displayed on the screen of the display device. The person can also know the obstacle information outside the field of view of the camera that images the front of the robot.

【0008】特に、環境表示画面上に各物体を立体表示
する処理過程を含むこととしたり、カメラから得た明度
情報を、物体の三次元モデルにマッピングする処理過程
を含むこととしたり、複数の表示画面上に互いに異なる
形態で表示される同一物体を同一色で表示する処理過程
を含むこととしたりすれば、ロボットの周囲の状況をよ
り一層分かり易く操縦者に示すことができる。
In particular, the method may include a process of stereoscopically displaying each object on an environment display screen, a process of mapping brightness information obtained from a camera onto a three-dimensional model of the object, and a plurality of processes. By including a process of displaying the same object displayed in a different form on the display screen in the same color, the situation around the robot can be more easily understood to the operator.

【0009】[0009]

【発明の実施の形態】以下に添付の図面を参照して本発
明について詳細に説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention will be described below in detail with reference to the accompanying drawings.

【0010】本発明による環境情報処理方法が適用され
る装置は、図1に示すように、移動体としてのロボット
に搭載されたCCDカメラなどの画像データ出力装置1
と、入力画像データから障害物データを抽出し且つ記憶
する障害物データ処理装置2と、障害物の位置を視覚的
に表す環境表示装置3とからなっている。
As shown in FIG. 1, an apparatus to which an environmental information processing method according to the present invention is applied is an image data output apparatus 1 such as a CCD camera mounted on a robot as a moving body.
And an obstacle data processing device 2 that extracts and stores obstacle data from input image data, and an environment display device 3 that visually indicates the position of the obstacle.

【0011】この装置における処理過程について図2を
参照して以下に説明する。まず、2つのカメラの画像を
とらえる2眼立体視システムなどにより、図3に示すよ
うな障害物10a〜10eを撮像した明度画像を時系列
的に得ると共に(ステップ1)、画素毎の三次元距離デ
ータを得る(ステップ2)。そしてこの距離データを、
例えばヒストグラム処理することにより、障害物のクラ
スタリングを行う(ステップ3)。なお、この場合のカ
メラの画像は、無限遠方の一点を消失点とする透視図で
表され、ロボットが前進するに連れて、図3−aに示す
画像から図3−bに示す画像へ連続的に変化し、カメラ
の視野を外れた障害物10a〜10cは画面に映らなく
なる。
The processing steps in this apparatus will be described below with reference to FIG. First, a brightness image obtained by capturing the obstacles 10a to 10e as shown in FIG. 3 is obtained in time series by a binocular stereoscopic vision system or the like that captures images of two cameras (step 1), and a three-dimensional image for each pixel is obtained. Obtain distance data (step 2). And this distance data,
For example, clustering of obstacles is performed by performing histogram processing (step 3). The image of the camera in this case is represented by a perspective view in which one point at infinity is a vanishing point. As the robot moves forward, the image shown in FIG. Obstacles 10a to 10c that have changed from the viewpoint and are out of the field of view of the camera are not displayed on the screen.

【0012】次いで障害物クラスタの範囲内の画素を画
像上から抽出し(ステップ4)、これに画素毎の三次元
距離データを対応させることにより、各障害物の三次元
データを得る(ステップ5)。
Next, pixels within the range of the obstacle cluster are extracted from the image (step 4), and three-dimensional distance data for each pixel is made to correspond to the extracted pixels, thereby obtaining three-dimensional data of each obstacle (step 5). ).

【0013】さらに、各障害物クラスタの平均位置や分
布、画像上での矩形化データ、三次元データなどを表示
用記憶装置に保存して形成した障害物データベースを、
ロボットの進行に従って逐次更新し、これによってロボ
ットの進路上の障害物マップを作成する(ステップ
6)。
Further, an obstacle database formed by storing the average position and distribution of each obstacle cluster, rectangular data on an image, three-dimensional data, and the like in a display storage device is provided.
The map is sequentially updated according to the progress of the robot, and thereby an obstacle map on the path of the robot is created (step 6).

【0014】上記データに基づいて、ロボットの周囲状
況を操縦者が把握し易いように画像処理を行い、その結
果をCRTなどの環境画像表示装置に表示する(ステッ
プ7)。
Based on the data, image processing is performed so that the operator can easily grasp the surroundings of the robot, and the result is displayed on an environmental image display device such as a CRT (step 7).

【0015】この際、ロボットに搭載したカメラが実写
した画像の視野角内の障害物10d、10eと、視野を
外れた位置にある障害物10b、10cの立体輪郭画像
とを、一画面に同時に表示することにより、操縦者は、
カメラが撮像可能な視野角範囲外にある物体について
も、その存在を容易に把握することができることとなる
(図4参照)。また、カメラが捕らえた生の外部環境の
画像と、画像処理した画像とを、同時に操縦者に見せる
ことにより、より一層容易に遠隔操縦を行えるようにす
ることができる。なお、図4に示したものは、処理を簡
略化するために障害物の輪郭を矩形で囲った線だけで表
示するものとしたが、このような輪郭線だけの表示ばか
りでなく、カメラが実写した画像から明度情報が同時に
得られるので、この明度情報をピクセル毎の三次元距離
データに付加することにより(テクスチャマッピン
グ)、より一層分かり易い立体表示を行うこともでき
る。
At this time, the obstacles 10d and 10e within the viewing angle of the image photographed by the camera mounted on the robot and the three-dimensional contour images of the obstacles 10b and 10c located outside the field of view are simultaneously displayed on one screen. By displaying, the pilot can
The presence of an object outside the viewing angle range that can be captured by the camera can be easily grasped (see FIG. 4). In addition, by simultaneously displaying the image of the raw external environment captured by the camera and the image that has been subjected to the image processing to the operator, remote control can be performed more easily. In FIG. 4, the outline of the obstacle is displayed only by a line surrounded by a rectangle in order to simplify the processing, but not only such an outline but also a camera is displayed. Since the brightness information is simultaneously obtained from the actually photographed image, by adding the brightness information to the three-dimensional distance data for each pixel (texture mapping), a more intuitive three-dimensional display can be performed.

【0016】また、当然ながら、障害物の二次元的な位
置も抽出されているので、ロボットが通過した道筋上で
自己の視覚情報に基づいて得たデータを環境マップ上に
履歴として記憶させることにより、ロボットの進路地図
を移動と共に作成し、かつ平面地図として表示すること
もできる。
Naturally, since the two-dimensional position of the obstacle is also extracted, the data obtained on the path through which the robot has passed based on its own visual information is stored as a history on an environment map. Thus, the route map of the robot can be created together with the movement and displayed as a planar map.

【0017】さらに、距離データに基づいて例えば近距
離を赤く、遠距離を青くするなど、距離に応じた色分け
を施すことにより、距離感をつかみ易くすることができ
るし、カメラが実写した画像の表示色と環境画像の表示
色とを揃えることにより、両者の同一性を認識し易くし
得るので、ロボットと障害物との相対位置関係を把握し
易くすることもできる。
[0017] Further, by performing color coding according to the distance based on the distance data, for example, red for a short distance and blue for a long distance, the sense of distance can be easily grasped. By aligning the display color and the display color of the environmental image, it is possible to easily recognize the sameness of the two, and it is also possible to easily grasp the relative positional relationship between the robot and the obstacle.

【0018】次に、障害物のデータをどの程度の範囲ま
で履歴として残すかについての一例を、2眼立体視シス
テムの距離精度を基準にして求める手法を説明する。
Next, an example of the extent to which the data of an obstacle is to be retained as a history as a history will be described with reference to a method of obtaining the distance accuracy of a binocular stereoscopic system as a reference.

【0019】2眼立体視システムの距離精度Δrは、一
般に次式で求められる。
The distance accuracy Δr of the binocular stereoscopic system is generally obtained by the following equation.

【0020】Δr=Δd(ur/bf)Δr = Δd (ur 2 / bf)

【0021】但し、Δd:視差分解能(例えば1ピクセ
ルの1/10のサブピクセルまでの視差を算出する場合
は0.1)、u:1ピクセルのサイズ、r:視点からの
距離、b:2つのカメラ間の距離(2台のカメラの視線
は互いに平行とする)、f:焦点距離、とする。
Here, Δd: parallax resolution (for example, 0.1 when calculating parallax up to 1/10 sub-pixel of one pixel), u: size of one pixel, r: distance from viewpoint, b: 2 The distance between the two cameras (the lines of sight of the two cameras are parallel to each other) and f: focal length.

【0022】例えば、uを9.9μm、bを70mm、
fを6mm、Δdを1とすると、rとΔrとの関係は図
5のようになる。
For example, u is 9.9 μm, b is 70 mm,
If f is 6 mm and Δd is 1, the relationship between r and Δr is as shown in FIG.

【0023】従って、例えば許容誤差を50cmと想定
した場合、rは約4.6mとなるので、履歴範囲として
ロボットを中心とした半径4.6m程度に設定すること
が実用上の一つの目安となる。そしてこの値を基準にし
て、ロボットの走行速度や加速能力、並びにCPUの処
理速度を加味して履歴範囲を定めると良い。
Therefore, for example, when the allowable error is assumed to be 50 cm, r is about 4.6 m. Therefore, it is practically set to be about 4.6 m in radius with the center of the robot as the history range. Become. Then, based on this value, the history range may be determined in consideration of the traveling speed and acceleration ability of the robot and the processing speed of the CPU.

【0024】なお、距離データを得るには、2眼立体視
システムばかりでなく、例えば特開昭60−85897
号公報に開示された技術を適用することもできる。また
本発明は、屋外への適用も可能であることは言うまでも
ない。
In order to obtain the distance data, not only the binocular stereoscopic system but also, for example, Japanese Patent Application Laid-Open No. 60-85897.
The technology disclosed in Japanese Patent Application Laid-Open Publication No. H10-26095 can also be applied. Needless to say, the present invention can be applied outdoors.

【0025】[0025]

【発明の効果】このように本発明によれば、前方を撮像
するカメラの視野角外の障害物を視覚的に表示すること
が可能となり、ロボットの周囲の状況を容易に且つ的確
に遠隔操縦者が把握することができるので、ロボットの
遠隔操縦をより一層容易化する上に多大な効果を奏する
ことができる。
As described above, according to the present invention, it is possible to visually display an obstacle outside the field of view of a camera for imaging the front, and to easily and accurately remotely control a situation around the robot. Therefore, the remote control of the robot can be further facilitated, and a great effect can be achieved.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明が適用される装置構成のブロック図FIG. 1 is a block diagram of a device configuration to which the present invention is applied.

【図2】本発明の処理フロー図FIG. 2 is a processing flowchart of the present invention.

【図3】カメラが撮像した画像を表示した画面の概念図FIG. 3 is a conceptual diagram of a screen displaying an image captured by a camera.

【図4】画像をデータ処理した結果を表示した画面の概
念図
FIG. 4 is a conceptual diagram of a screen displaying a result of data processing of an image.

【図5】2眼立体視システムの距離精度Δrとレンズか
らの距離との関係線図
FIG. 5 is a relationship diagram between the distance accuracy Δr of the binocular stereoscopic vision system and the distance from the lens.

【符号の説明】[Explanation of symbols]

1 画像データ処理装置 2 障害物データ処理装置 3 表示装置 10a〜10e 障害物 DESCRIPTION OF SYMBOLS 1 Image data processing device 2 Obstacle data processing device 3 Display device 10a-10e Obstacle

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 移動体に搭載されたカメラで撮像した前
方の画像中の物体表面の各点のカメラからの距離データ
を求める過程と、 該距離データをクラスタリング処理して画像中の物体を
抽出する過程と、 物体クラスタのデータを時系列的に記憶して障害物デー
タベースを作成する過程と、 障害物データベースに蓄積された物体の情報に基づいて
カメラの視野内の物体とカメラの視野外の物体と移動体
との位置関係を同一の環境表示画面上に表示する処理過
程とを含むことを特徴とする環境情報作成方法。
1. A process of obtaining distance data from a camera for each point on the surface of an object in a forward image picked up by a camera mounted on a moving object, and extracting an object in the image by performing a clustering process on the distance data. Creating an obstacle database by chronologically storing the data of the object cluster, and creating an obstacle database based on the information of the objects stored in the obstacle database. Displaying a positional relationship between the object and the moving object on the same environment display screen.
【請求項2】 環境表示画面上に各物体を立体表示する
処理過程を含むことを特徴とする請求項1に記載の環境
情報作成方法。
2. The environment information creating method according to claim 1, further comprising a process of stereoscopically displaying each object on an environment display screen.
【請求項3】 カメラから得た明度情報を、物体の三次
元モデルにマッピングする処理過程を含むことを特徴と
する請求項1若しくは2に記載の環境情報作成方法。
3. The method according to claim 1, further comprising the step of mapping brightness information obtained from the camera to a three-dimensional model of the object.
【請求項4】 複数の表示画面上に互いに異なる形態で
表示される同一物体を同一色で表示する処理過程を含む
ことを特徴とする請求項1〜3のいずれかに記載の環境
情報作成方法。
4. The environment information creating method according to claim 1, further comprising a process of displaying the same object displayed in a different form on a plurality of display screens in the same color. .
JP2001084126A 2001-03-23 2001-03-23 Environmental information forming method Pending JP2002288637A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001084126A JP2002288637A (en) 2001-03-23 2001-03-23 Environmental information forming method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001084126A JP2002288637A (en) 2001-03-23 2001-03-23 Environmental information forming method

Publications (1)

Publication Number Publication Date
JP2002288637A true JP2002288637A (en) 2002-10-04

Family

ID=18939843

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001084126A Pending JP2002288637A (en) 2001-03-23 2001-03-23 Environmental information forming method

Country Status (1)

Country Link
JP (1) JP2002288637A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004240940A (en) * 2003-02-07 2004-08-26 Samsung Kwangju Electronics Co Ltd Robot cleaner position recognition sign detecting method and robot cleaner applying same detecting method
JP2004326264A (en) * 2003-04-22 2004-11-18 Matsushita Electric Works Ltd Obstacle detecting device and autonomous mobile robot using the same and obstacle detecting method and obstacle detecting program
JP2008254150A (en) * 2007-04-09 2008-10-23 Denso Wave Inc Teaching method and teaching device of robot
JP2010134499A (en) * 2008-12-02 2010-06-17 Mitsubishi Electric Corp Remote place image display device, remote control apparatus, vehicle control apparatus, remote control system, remote control method, remote control program, vehicle control program, remote place image display method, and remote place image display program
JP2013111672A (en) * 2011-11-25 2013-06-10 Chiba Inst Of Technology Obtaining system for environment information using unmanned traveling body
JP2013544382A (en) * 2010-09-03 2013-12-12 アルデバラン ロボティクス Mobile robot
JP2019084615A (en) * 2017-11-06 2019-06-06 トヨタ自動車株式会社 Master handling device
WO2019188697A1 (en) * 2018-03-27 2019-10-03 Groove X株式会社 Autonomous action robot, data supply device, and data supply program
JP2021036451A (en) * 2014-04-25 2021-03-04 ソニー株式会社 Information processor, information processing method, and information processing program
KR20220061781A (en) * 2020-11-06 2022-05-13 베어 로보틱스, 인크. Method, system, and non-transitory computer-readable recording medium for controlling a destination of a robot

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004240940A (en) * 2003-02-07 2004-08-26 Samsung Kwangju Electronics Co Ltd Robot cleaner position recognition sign detecting method and robot cleaner applying same detecting method
JP2004326264A (en) * 2003-04-22 2004-11-18 Matsushita Electric Works Ltd Obstacle detecting device and autonomous mobile robot using the same and obstacle detecting method and obstacle detecting program
JP2008254150A (en) * 2007-04-09 2008-10-23 Denso Wave Inc Teaching method and teaching device of robot
JP2010134499A (en) * 2008-12-02 2010-06-17 Mitsubishi Electric Corp Remote place image display device, remote control apparatus, vehicle control apparatus, remote control system, remote control method, remote control program, vehicle control program, remote place image display method, and remote place image display program
JP2013544382A (en) * 2010-09-03 2013-12-12 アルデバラン ロボティクス Mobile robot
KR20140031159A (en) * 2010-09-03 2014-03-12 알데바란 로보틱스 Mobile robot
JP2017041262A (en) * 2010-09-03 2017-02-23 ソフトバンク・ロボティクス・ヨーロッパSoftbank Robotics Europe Control apparatus for mobile robot, system for mobile robot, and method for controlling mobile robot
JP2013111672A (en) * 2011-11-25 2013-06-10 Chiba Inst Of Technology Obtaining system for environment information using unmanned traveling body
JP7078093B2 (en) 2014-04-25 2022-05-31 ソニーグループ株式会社 Information processing equipment, information processing methods and information processing programs
JP2022111131A (en) * 2014-04-25 2022-07-29 ソニーグループ株式会社 Flight control method, information processing apparatus and computer program
JP2021036451A (en) * 2014-04-25 2021-03-04 ソニー株式会社 Information processor, information processing method, and information processing program
US11237560B2 (en) 2014-04-25 2022-02-01 Sony Corporation Control device, imaging device, control method, imaging method, and computer program
JP2019084615A (en) * 2017-11-06 2019-06-06 トヨタ自動車株式会社 Master handling device
WO2019188697A1 (en) * 2018-03-27 2019-10-03 Groove X株式会社 Autonomous action robot, data supply device, and data supply program
KR20220061781A (en) * 2020-11-06 2022-05-13 베어 로보틱스, 인크. Method, system, and non-transitory computer-readable recording medium for controlling a destination of a robot
KR102521970B1 (en) 2020-11-06 2023-04-13 베어 로보틱스, 인크. Method, system, and non-transitory computer-readable recording medium for controlling a destination of a robot

Similar Documents

Publication Publication Date Title
CN111062873B (en) Parallax image splicing and visualization method based on multiple pairs of binocular cameras
CN109348119B (en) Panoramic monitoring system
CN110335292B (en) Method, system and terminal for realizing simulation scene tracking based on picture tracking
US20070076090A1 (en) Device for generating three dimensional surface models of moving objects
JP2018511098A5 (en)
US20160210785A1 (en) Augmented reality system and method for positioning and mapping
JPH09187038A (en) Three-dimensional shape extract device
EP3451285B1 (en) Distance measurement device for motion picture camera focus applications
CN108093244B (en) Remote follow-up stereoscopic vision system
JP2010504711A (en) Video surveillance system and method for tracking moving objects in a geospatial model
JP2010109452A (en) Vehicle surrounding monitoring device and vehicle surrounding monitoring method
JP4306006B2 (en) Three-dimensional data input method and apparatus
CN109636763B (en) Intelligent compound eye monitoring system
CN110838164A (en) Monocular image three-dimensional reconstruction method, system and device based on object point depth
CN113965721B (en) Alignment method for image and depth transmission monitoring system
JP2002288637A (en) Environmental information forming method
CN112207821A (en) Target searching method of visual robot and robot
JP2004507180A (en) Stereoscopic image deformation correction method and system
KR20120108256A (en) Robot fish localization system using artificial markers and method of the same
JP4581512B2 (en) Three-dimensional image processing apparatus, optical axis adjustment method, and optical axis adjustment support method
WO2003021967A2 (en) Image fusion systems
JPH0795621A (en) Image recording and reproducing device
JPH09322053A (en) Image pickup method for object in automatic image pickup camera system
JP2013200840A (en) Video processing device, video processing method, video processing program, and video display device
Yang et al. Seeing as it happens: Real time 3D video event visualization