JP5174636B2 - Remote control system and remote control device - Google Patents
Remote control system and remote control device Download PDFInfo
- Publication number
- JP5174636B2 JP5174636B2 JP2008304706A JP2008304706A JP5174636B2 JP 5174636 B2 JP5174636 B2 JP 5174636B2 JP 2008304706 A JP2008304706 A JP 2008304706A JP 2008304706 A JP2008304706 A JP 2008304706A JP 5174636 B2 JP5174636 B2 JP 5174636B2
- Authority
- JP
- Japan
- Prior art keywords
- moving body
- model
- image
- virtual viewpoint
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 claims description 45
- 230000007613 environmental effect Effects 0.000 claims description 26
- 238000003384 imaging method Methods 0.000 claims description 23
- 239000002131 composite material Substances 0.000 claims description 19
- 238000000034 method Methods 0.000 description 24
- 230000001186 cumulative effect Effects 0.000 description 15
- 238000004891 communication Methods 0.000 description 14
- 230000008569 process Effects 0.000 description 9
- 238000004519 manufacturing process Methods 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 230000036544 posture Effects 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000003860 storage Methods 0.000 description 3
- 238000005520 cutting process Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000010187 selection method Methods 0.000 description 2
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0011—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
- G05D1/0038—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with simple or augmented images from one or more cameras located onboard the vehicle, e.g. tele-operation
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Aviation & Aerospace Engineering (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Selective Calling Equipment (AREA)
- Image Analysis (AREA)
Description
この発明は遠隔操作システムおよび遠隔操作装置に関し、より特定的には、移動体を遠隔操作するための遠隔操作システムおよび遠隔操作装置に関する。 The present invention relates to a remote operation system and a remote operation device, and more particularly to a remote operation system and a remote operation device for remotely operating a moving body.
一般に、自動車等の移動体を当該移動体から離れた位置の遠隔操作装置によって遠隔操作する遠隔操作システムが知られている。従来、このような遠隔操作システムにおいて移動体の遠隔操作を容易にするための技術が種々提案されている。その一例として特許文献1には、移動体に設けられるカメラが過去に撮影した環境画像に移動体画像を合成して遠隔操作装置のモニタに表示する技術が開示されている。操作者は、モニタに表示される画像を確認しながら遠隔操作装置の入力機器を用いて移動体を遠隔操作する。
しかし、特許文献1のように遠隔操作する場合、モニタには実際の移動体の挙動が遅れて表示されるために入力機器への適切な入力量をモニタの画像から把握するためには慣れが必要であり、不慣れな操作者では移動体を思い通りに遠隔操作することが困難であった。特に移動体を右左折させる場合は、操作者が不慣れであれば向きの修正のために入力機器への急な入力(急操作)を繰り返し、移動体を蛇行させるおそれがあった。 However, when performing remote operation as in Patent Document 1, since the actual behavior of the moving body is displayed with a delay on the monitor, it is not easy to grasp the appropriate input amount to the input device from the monitor image. It is necessary, and it is difficult for an unfamiliar operator to remotely control the moving body as desired. In particular, when the mobile body is turned right or left, if the operator is not accustomed, there is a possibility that the mobile body may be meandered by repeating a sudden input (rapid operation) to the input device to correct the orientation.
それゆえに、この発明の主たる目的は、不慣れな操作者でも移動体を容易に遠隔操作することができる、遠隔操作システムおよび遠隔操作装置を提供することである。 SUMMARY OF THE INVENTION Therefore, a main object of the present invention is to provide a remote operation system and a remote operation device that allow an inexperienced operator to easily remotely operate a moving body.
上述の目的を達成するために、請求項1に記載の画像処理システムは、左右一対の前輪を有する移動体と前記移動体を遠隔操作する遠隔操作装置とを備える遠隔操作システムであって、前記移動体は、前記移動体の周囲の環境画像を撮像する撮像手段と、前記移動体および前記撮像手段に関する情報を検出する情報検出手段とを備え、前記遠隔操作装置は、操作者が前記移動体を操舵するための入力手段と、前記情報検出手段の検出結果に基づいて仮想視点を決定する決定手段と、前記撮像手段によって前記仮想視点から撮像された前記環境画像と当該環境画像の撮像時における前記情報検出手段の検出結果とに基づいて、前記環境画像を3次元で表す3次元環境画像と前記仮想視点とを仮想空間に生成する第1生成手段と、前記仮想視点からの前記環境画像の撮像後における前記情報検出手段の検出結果と前記移動体を表す移動体モデルに関するデータとに基づいて、前記移動体モデルを前記仮想空間に生成する第2生成手段と、前記仮想視点からの前記環境画像の撮像後における前記情報検出手段の検出結果と前記入力手段からの入力量とに基づいて、前記移動体の前進時、左折時および右折時における前記入力手段からの入力量の指標となる補助モデルを前記仮想空間に生成する第3生成手段と、前記仮想視点から見た前記3次元環境画像と前記移動体モデルと前記補助モデルとを透視投影して合成画像を生成する第4生成手段と、前記合成画像を表示する表示手段とを備え、前記補助モデルは、前記移動体モデルの進行方向に直交しかつ前記移動体モデルの左側の前輪と右側の前輪との中間点を通りつつ前記移動体モデルに対して横方向に延びる第1補助モデルを含むことを特徴とする。 In order to achieve the above object, an image processing system according to claim 1 is a remote operation system including a moving body having a pair of left and right front wheels and a remote operation device for remotely operating the moving body, The moving body includes an imaging unit that captures an environment image around the moving body, and an information detection unit that detects information related to the moving body and the imaging unit. Input means for steering the vehicle, determination means for determining a virtual viewpoint based on the detection result of the information detection means, the environment image captured from the virtual viewpoint by the imaging means, and the environment image at the time of imaging First generation means for generating, in a virtual space, a three-dimensional environment image representing the environment image in three dimensions and the virtual viewpoint based on a detection result of the information detection means; Second generating means for generating the moving body model in the virtual space based on a detection result of the information detecting means after capturing the environmental image and data relating to the moving body model representing the moving body, and the virtual Based on the detection result of the information detection unit and the input amount from the input unit after capturing the environmental image from the viewpoint, the input amount from the input unit at the time of forward movement, left turn and right turn of the moving body Generating a composite image by perspectively projecting the three-dimensional environment image viewed from the virtual viewpoint, the moving body model, and the auxiliary model; a fourth generating unit, e Bei and display means for displaying the composite image, the auxiliary model, left front wheel and right perpendicular to the traveling direction of the mobile body model and the mobile body model Characterized in that it comprises a first auxiliary model that extends transversely to the moving body model while through the midpoint between the front wheel.
請求項2に記載の遠隔操作システムは、請求項1に記載の遠隔操作システムにおいて、前記補助モデルは、前記移動体モデルの移動経路を表す第2補助モデルを含むことを特徴とする。 A remote operation system according to a second aspect is the remote operation system according to the first aspect, wherein the auxiliary model includes a second auxiliary model representing a movement path of the moving body model.
請求項3に記載の遠隔操作装置は、左右一対の前輪を有する移動体の周囲の環境画像を撮像する撮像手段と、前記移動体および前記撮像手段に関する情報を検出する情報検出手段とを備える前記移動体、を遠隔操作する遠隔操作装置であって、操作者が前記移動体を操舵するための入力手段と、前記情報検出手段の検出結果に基づいて仮想視点を決定する決定手段と、前記撮像手段によって前記仮想視点から撮像された前記環境画像と当該環境画像の撮像時における前記情報検出手段の検出結果とに基づいて、前記環境画像を3次元で表す3次元環境画像と前記仮想視点とを仮想空間に生成する第1生成手段と、前記仮想視点からの前記環境画像の撮像後における前記情報検出手段の検出結果と前記移動体を表す移動体モデルに関するデータとに基づいて、前記移動体モデルを前記仮想空間に生成する第2生成手段と、前記仮想視点からの前記環境画像の撮像後における前記情報検出手段の検出結果と前記入力手段からの入力量とに基づいて、前記移動体の前進時、左折時および右折時における前記入力手段からの入力量の指標となる補助モデルを前記仮想空間に生成する第3生成手段と、前記仮想視点から見た前記3次元環境画像と前記移動体モデルと前記補助モデルとを透視投影して合成画像を生成する第4生成手段と、前記合成画像を表示する表示手段とを備え、前記補助モデルは、前記移動体モデルの進行方向に直交しかつ前記移動体モデルの左側の前輪と右側の前輪との中間点を通りつつ前記移動体モデルに対して横方向に延びる第1補助モデルを含むことを特徴とする。 The remote control device according to claim 3 , comprising: an imaging unit that captures an environment image around a moving body having a pair of left and right front wheels ; and an information detection unit that detects information about the moving body and the imaging unit. A remote control device for remotely operating a mobile body, wherein an operator steers the mobile body, a determination means for determining a virtual viewpoint based on a detection result of the information detection means, and the imaging A three-dimensional environment image representing the environment image in three dimensions and the virtual viewpoint based on the environment image picked up from the virtual viewpoint by the means and the detection result of the information detection means at the time of picking up the environment image First generation means for generating in a virtual space, detection result of the information detection means after imaging the environmental image from the virtual viewpoint, and data relating to a moving body model representing the moving body Based on the second generation means for generating the moving body model in the virtual space, the detection result of the information detection means after imaging the environmental image from the virtual viewpoint, and the input amount from the input means Based on the virtual viewpoint, the third generating means for generating an auxiliary model serving as an index of the input amount from the input means at the time of forward movement, left turn and right turn of the mobile body, and the 3 viewed from the virtual viewpoint e Bei fourth generation means for generating a composite image as the dimension environmental image with the mobile model and the auxiliary model perspective projection to, and display means for displaying the composite image, the auxiliary model, the movable body characterized in that it comprises a first auxiliary model that extends transversely to the perpendicular to the traveling direction of the model and the mobile body model while through an intermediate point between the left front wheel and right front wheel of the moving body model
請求項1に記載の遠隔操作システムでは、情報検出手段の検出結果に基づいて仮想視点が決定され、撮像手段によって仮想視点から撮像された環境画像と当該環境画像の撮像時における情報検出手段の検出結果とに基づいて、3次元環境画像と仮想視点とが仮想空間に生成される。また、仮想視点からの環境画像の撮像後における情報検出手段の検出結果と移動体モデルに関するデータとに基づいて、移動体モデルが仮想空間に生成される。さらに、仮想視点からの環境画像の撮像後における情報検出手段の検出結果と入力手段からの入力量とに基づいて、入力手段からの入力量の指標となる補助モデルが仮想空間に生成される。そして、仮想視点から見た3次元環境画像と移動体モデルと補助モデルとを透視投影して合成画像が生成され、合成画像が表示手段に表示される。合成画像に表れる補助モデルは、入力手段からの入力量に応じて遠隔操作装置で生成されるので、現在の入力手段からの入力量に略対応するものになる。合成画像においてこのような補助モデルと道の路肩等との位置関係を確認することによって、操作者は移動体モデルひいては移動体を適切な向きで移動させるために必要な入力手段への入力量を容易に把握できる。したがって、不慣れな操作者でも、移動体を容易に遠隔操作することができ、移動体を迅速に目的地に移動させることができる。また、移動体モデルの進行方向に直交しかつ移動体モデルに対して横方向に延びる第1補助モデルが、補助モデルに含まれる。操作者は、合成画像において道の路肩等と第1補助モデルとの交わり方を確認することによって入力手段への適切な入力量を容易に把握できる。第1補助モデルは、道が急激に曲がっている場合に特に有効である。この場合は道の路肩等に対して第1補助モデルが略直交するように入力手段への入力量を調節することによって、不慣れな操作者でも移動体を容易に安定して遠隔操作することができる。請求項3に記載の遠隔操作装置においても同様である。 In the remote operation system according to claim 1, a virtual viewpoint is determined based on a detection result of the information detection unit, and an environment image captured from the virtual viewpoint by the imaging unit and detection of the information detection unit at the time of capturing the environment image Based on the result, a three-dimensional environment image and a virtual viewpoint are generated in the virtual space. In addition, the moving body model is generated in the virtual space based on the detection result of the information detecting unit after capturing the environmental image from the virtual viewpoint and the data related to the moving body model. Further, based on the detection result of the information detection unit and the input amount from the input unit after capturing the environmental image from the virtual viewpoint, an auxiliary model serving as an index of the input amount from the input unit is generated in the virtual space. Then, a three-dimensional environment image viewed from the virtual viewpoint, the moving body model, and the auxiliary model are perspective-projected to generate a composite image, and the composite image is displayed on the display unit. Since the auxiliary model appearing in the composite image is generated by the remote control device in accordance with the input amount from the input means, it substantially corresponds to the input amount from the current input means. By confirming the positional relationship between such an auxiliary model and the shoulder of the road in the composite image, the operator can input the amount of input to the input means necessary for moving the moving body model and thus the moving body in an appropriate direction. Easy to grasp. Therefore, even an inexperienced operator can easily remotely control the moving body, and can quickly move the moving body to the destination. In addition, a first auxiliary model that is orthogonal to the traveling direction of the moving body model and extends in the lateral direction with respect to the moving body model is included in the auxiliary model. The operator can easily grasp an appropriate input amount to the input means by confirming how the road shoulder and the first auxiliary model intersect in the composite image. The first auxiliary model is particularly effective when the road is sharply bent. In this case, by adjusting the input amount to the input means so that the first auxiliary model is substantially orthogonal to the shoulder of the road, even an unfamiliar operator can easily and stably operate the moving body. it can. The same applies to the remote control device according to claim 3 .
請求項2に記載の遠隔操作システムでは、移動体モデルの移動経路に沿って延びる第2補助モデルが、補助モデルに含まれる。操作者は、合成画像において道の路肩等と第2補助モデルとの隙間を確認することによって入力手段への適切な入力量を容易に把握できる。第2補助モデルは、道が緩やかに曲がっている場合に特に有効である。この場合は道の路肩等と第2補助モデルとの間隔が一定になるように入力手段への入力量を調節することによって、不慣れな操作者でも移動体を容易に安定して遠隔操作することができる。 The remote control system according to claim 2, the second auxiliary model that extends along a moving path of the mobile body model is included in the auxiliary model. The operator can easily grasp the appropriate input amount to the input means by confirming the gap between the shoulder of the road and the second auxiliary model in the composite image. The second auxiliary model is particularly effective when the road is gently curved. In this case, by adjusting the input amount to the input means so that the distance between the road shoulder and the second auxiliary model is constant, even an unfamiliar operator can easily and stably operate the moving body. Can do.
この発明によれば、不慣れな操作者でも移動体を容易に遠隔操作することができる、遠隔操作システムおよび遠隔操作装置が得られる。 According to the present invention, it is possible to obtain a remote operation system and a remote operation device that enable an inexperienced operator to easily remotely operate a moving body.
以下、図面を参照してこの発明の実施の形態について説明する。
図1はこの発明の一実施形態の遠隔操作システム10を示すブロック図である。図2は移動体12を示す左側面図である。
Embodiments of the present invention will be described below with reference to the drawings.
FIG. 1 is a block diagram showing a remote control system 10 according to an embodiment of the present invention. FIG. 2 is a left side view showing the moving body 12.
図1を参照して、遠隔操作システム10は、移動体12と移動体12を遠隔操作するための遠隔操作装置14とを含む。
図2をも参照して、移動体12は、たとえば荒地走行用の4輪バギー車であり農作業や測量等に用いられ、マイクロコンピュータ(以下、マイコンという)16、速度検出器18、カメラ20、測位ユニット22、姿勢センサ24、方位センサ26、ハードディスクドライブ(ハードディスクを含む:以下、HDDという)28、駆動部30および通信機器32を含む。
Referring to FIG. 1, a remote operation system 10 includes a moving body 12 and a remote operation device 14 for remotely operating the moving body 12.
Referring also to FIG. 2, the moving body 12 is, for example, a four-wheel buggy for traveling on rough land and is used for farm work, surveying, etc., and includes a microcomputer (hereinafter referred to as a microcomputer) 16, a speed detector 18, a camera 20, It includes a positioning unit 22, an attitude sensor 24, an orientation sensor 26, a hard disk drive (including a hard disk: hereinafter referred to as HDD) 28, a drive unit 30, and a communication device 32.
速度検出器18は、左側の前輪30aの回転軸近傍に取り付けられ、当該回転軸の回転数に基づいて移動体12の速度を検出する。
カメラ20は、移動体12の前面中央部やや上寄りに設けられ、移動体12の前方の環境画像を撮像する。カメラ20はレンズ20aを有するデジタルCCDカメラである。レンズ20aは広角であることが望ましく、この実施形態では画角が180°の全周魚眼レンズが用いられる。これによってカメラ20は広角な画像を撮像できる。ここで、レンズ20aの中心点をカメラ20の視点Aとし、視点Aの位置をカメラ20の位置とする。
Speed detector 18 is attach to the rotation axis near the left front wheel 30a, for detecting the speed of the moving body 12 based on the rotational speed of the rotary shaft.
The camera 20 is provided slightly above the center of the front surface of the moving body 12 and captures an environmental image in front of the moving body 12. The camera 20 is a digital CCD camera having a lens 20a. It is desirable that the lens 20a has a wide angle. In this embodiment, an all-around fisheye lens having an angle of view of 180 ° is used. As a result, the camera 20 can capture a wide-angle image. Here, the center point of the lens 20 a is the viewpoint A of the camera 20, and the position of the viewpoint A is the position of the camera 20.
測位ユニット22は移動体12の位置を検出するために移動体12の位置を示す基準点Bに設けられる。この実施形態では、基準点Bは、視点Aから水平方向真後ろに引いた直線と2つの後輪30bの中間点を通る垂線との交点に設定される。測位ユニット22は、GPS(Global Positioning System)衛星からの信号を受信することによって基準点Bの位置を検出する。 The positioning unit 22 is provided at a reference point B indicating the position of the moving body 12 in order to detect the position of the moving body 12. In this embodiment, the reference point B is set at the intersection of a straight line drawn from the viewpoint A directly behind in the horizontal direction and a perpendicular passing through an intermediate point between the two rear wheels 30b. The positioning unit 22 detects the position of the reference point B by receiving a signal from a GPS (Global Positioning System) satellite.
姿勢センサ24は、たとえば3Dジャイロセンサまたは傾斜センサであり、移動体12の左右の傾き(ロール角)および移動体12の前後の傾き(ピッチ角)を検出する。
方位センサ26は移動体12の前方の向き(方位角)を検出する。
The posture sensor 24 is, for example, a 3D gyro sensor or a tilt sensor, and detects the left / right tilt (roll angle) of the moving body 12 and the front / back tilt (pitch angle) of the moving body 12.
The direction sensor 26 detects the forward direction (azimuth angle) of the moving body 12.
記憶手段であるHDD28は、マイコン16の指示に従って、プログラム、制御用データ、テキストデータおよび画像データ等を、ハードディスクに対して書き込みまた読み出すためのデバイスであり、各種センサによる検出結果、カメラ20によって撮像された環境画像のデータおよび各種プログラム等を記憶(格納)する。 The HDD 28 serving as storage means is a device for writing and reading programs, control data, text data, image data, and the like to and from the hard disk in accordance with instructions from the microcomputer 16. The stored environmental image data and various programs are stored (stored).
駆動部30は、2つの前輪30aおよび2つの後輪30bのほか、移動体12のステアリング機構を動かすためのステアリングモータ、スロットルを動かすためのスロットルモータ、ブレーキレバーを動かすためのブレーキモータ等を含む。 In addition to the two front wheels 30a and the two rear wheels 30b, the drive unit 30 includes a steering motor for moving the steering mechanism of the moving body 12, a throttle motor for moving the throttle, a brake motor for moving the brake lever, and the like. .
通信機器32は、移動体12と遠隔操作装置14とを通信回線Tを介して通信するために用いられる。通信回線Tは無線および有線のいずれであってもよく、たとえば無線LANや携帯電話回線によるデータ通信が行われる。通信回線Tの通信速度は、たとえば250kbps程度である。 The communication device 32 is used for communicating the mobile body 12 and the remote control device 14 via the communication line T. The communication line T may be either wireless or wired. For example, data communication is performed using a wireless LAN or a mobile phone line. The communication speed of the communication line T is, for example, about 250 kbps.
マイコン16は、CPU、RAM、ROMおよびクロック等を含み、移動体12の動作を制御する。マイコン16は、たとえば0.02秒毎に測位ユニット22、姿勢センサ24および方位センサ26の検出結果を取得する。これと同時に、マイコン16は、速度検出器18の検出結果に基づいてマイコン16が起動してからの移動体12の累積移動距離を算出する。移動体12の位置、姿勢、向きおよび累積移動距離は、これらを取得したときのデータ取得時刻と合わせて「移動体情報」としてHDD28に記憶されかつ通信機器32から遠隔操作装置14に送信される。また、マイコン16は、たとえば3秒毎に、カメラ20から環境画像の画像データを取得するとともに、当該環境画像の撮像時におけるカメラ情報(カメラ20の位置、姿勢および向きからなる)を取得する。これらの画像データおよびカメラ情報は、当該環境画像の撮像時における移動体12の累積移動距離および撮像時刻とともに、「過去情報」としてHDD28に記憶されかつ通信機器32から遠隔操作装置14に送信される。 The microcomputer 16 includes a CPU, a RAM, a ROM, a clock, and the like, and controls the operation of the moving body 12. The microcomputer 16 acquires the detection results of the positioning unit 22, the attitude sensor 24, and the direction sensor 26, for example, every 0.02 seconds. At the same time, the microcomputer 16 calculates the cumulative moving distance of the moving body 12 after the microcomputer 16 is activated based on the detection result of the speed detector 18. The position, orientation, orientation, and cumulative moving distance of the moving body 12 are stored in the HDD 28 as “moving body information” together with the data acquisition time when these are acquired, and transmitted from the communication device 32 to the remote control device 14. . For example, the microcomputer 16 acquires image data of the environment image from the camera 20 every 3 seconds, for example, and acquires camera information (consisting of the position, orientation, and orientation of the camera 20) at the time of capturing the environment image. These image data and camera information are stored in the HDD 28 as “past information” and transmitted from the communication device 32 to the remote control device 14 together with the cumulative moving distance and imaging time of the moving body 12 when the environmental image is captured. .
この実施形態では、カメラ20は移動体12に固定されており、カメラ20の位置を示す視点Aと移動体12の位置を示す基準点Bとの距離は一定である。したがって、移動体12の位置からカメラ20の位置までの前後、左右および上下方向(ここでは前後方向のみ)の距離分だけ、移動体12の位置からシフトさせた座標位置を、カメラ20の位置として取得することができる。また、カメラ20と移動体12とは姿勢および向きが同じであるので、移動体12の姿勢および向きをそのままカメラ20の姿勢および向きとすることができる。したがって、環境画像の撮像時におけるカメラ情報は、その時刻における移動体情報に基づいて得ることができる。
マイコン16によって駆動部30も制御される。
In this embodiment, the camera 20 is fixed to the moving body 12, and the distance between the viewpoint A indicating the position of the camera 20 and the reference point B indicating the position of the moving body 12 is constant. Accordingly, the coordinate position shifted from the position of the moving body 12 by the distances in the front and rear, left and right, and up and down directions (here, only in the front and rear direction) from the position of the moving body 12 to the position of the camera 20 is defined as the position of the camera 20. Can be acquired. Moreover, since the camera 20 and the moving body 12 have the same posture and orientation, the posture and orientation of the moving body 12 can be used as they are. Therefore, camera information at the time of capturing an environmental image can be obtained based on moving body information at that time.
The drive unit 30 is also controlled by the microcomputer 16.
図1に戻って、遠隔操作装置14について説明する。
遠隔操作装置14は、たとえばパーソナルコンピュータからなるコントロールユニット34、操作者による移動体12の操作を支援するための画像等を表示するためのたとえば液晶モニタからなるモニタ36、操作者が移動体12を操作するための入力機器38、および通信回線Tを介して移動体12の通信機器32と通信するための通信機器40を含む。
Returning to FIG. 1, the remote control device 14 will be described.
The remote operation device 14 includes, for example, a control unit 34 composed of a personal computer, a monitor 36 composed of, for example, a liquid crystal monitor for displaying an image or the like for supporting the operation of the movable body 12 by the operator, and the operator controls the movable body 12. An input device 38 for operation and a communication device 40 for communicating with the communication device 32 of the mobile unit 12 via the communication line T are included.
コントロールユニット34は、バス42で相互に接続されたCPU44ならびに記憶手段であるROM46、RAM48およびHDD50を含む。
CPU44は、記憶手段であるROM46やHDD50等に記憶された各種のプログラムを実行し、各構成要素に指示を与え、遠隔操作装置14の動作を制御する。
The control unit 34 includes a CPU 44 and a ROM 46, a RAM 48 and an HDD 50 which are storage means connected to each other via a bus 42.
The CPU 44 executes various programs stored in the ROM 46, the HDD 50, etc., which are storage means, gives instructions to each component, and controls the operation of the remote operation device 14.
HDD50は、CPU44の指示に従って、プログラム、制御用データ、テキストデータ、画像データ等を、ハードディスクに対して書き込みまた読み出すためのデバイスである。HDD50は、図3に示す動作を実行するための画像処理プログラム、移動体モデルMに関するデータ、操作部52a(後述)のハンドルの舵角と2つの前輪30aの舵角との対応関係を示すテーブルデータ、および移動体12から送信されてきた過去情報等を記憶(格納)する。 The HDD 50 is a device for writing and reading programs, control data, text data, image data, and the like to and from the hard disk in accordance with instructions from the CPU 44. The HDD 50 is a table showing the correspondence between the image processing program for executing the operation shown in FIG. 3, data relating to the moving body model M, the steering angle of the steering wheel of the operation unit 52a (described later) and the steering angles of the two front wheels 30a. The data and past information transmitted from the mobile body 12 are stored (stored).
ROM46は、起動用プログラム等を記憶している。起動用プログラムは、コントロールユニット34の電源投入時にCPU44によって実行される。これによって、HDD50に記録されているオペレーティングシステム(OS)等のプログラムがRAM48にロードされ、各種の処理や制御が実行可能となる。 The ROM 46 stores a startup program and the like. The activation program is executed by the CPU 44 when the control unit 34 is powered on. As a result, a program such as an operating system (OS) recorded in the HDD 50 is loaded into the RAM 48, and various processes and controls can be executed.
RAM48には、図3に示す動作を実行するための画像処理プログラム等が展開され、このプログラムによる処理結果、処理のための一時データおよび表示用データ(画像データやテキストデータ等)等を保持する。RAM48はCPU44の作業領域として使用される。RAM48上に展開された表示用データは、モニタ36に伝達される。モニタ36は、RAM48からの表示用データに対応する表示内容(画像やテキスト等)を表示する。 In the RAM 48, an image processing program or the like for executing the operation shown in FIG. 3 is developed, and processing results by this program, temporary data for processing, display data (image data, text data, etc.) and the like are held. . The RAM 48 is used as a work area for the CPU 44. The display data developed on the RAM 48 is transmitted to the monitor 36. The monitor 36 displays display contents (images, texts, etc.) corresponding to the display data from the RAM 48.
入力機器38は、移動体12の左右2つの前輪30aを操舵するための操舵ユニット52を含む。操舵ユニット52は、操作者によって操作されるハンドル(ステアリングホイール)を有する操作部52a、および操作部52aにおけるハンドルの舵角(切り角)を検出する舵角センサ52bを含む。移動体12には、舵角センサ52bの検出結果すなわち操舵ユニット52からの入力量に基づいて2つの前輪30aの操舵に関する指令が送信される。これによって、移動体12のステアリング機構が駆動され、2つの前輪30aの舵角が変更される。移動体12のステアリング機構としては、2つの前輪30aにおいて外輪の舵角よりも内輪の舵角が大きくなるアッカーマン機構が用いられる。
また、入力機器38は、スロットル操作およびブレーキ操作等のためのユニットを含み、これらへの操作入力に基づく指令が遠隔操作装置14から移動体12に送信される。
The input device 38 includes a steering unit 52 for steering the left and right front wheels 30a of the moving body 12. The steering unit 52 includes an operation unit 52a having a handle (steering wheel) operated by an operator, and a steering angle sensor 52b that detects a steering angle (cutting angle) of the handle in the operation unit 52a. A command related to the steering of the two front wheels 30a is transmitted to the moving body 12 based on the detection result of the steering angle sensor 52b, that is, the input amount from the steering unit 52. As a result, the steering mechanism of the moving body 12 is driven, and the steering angles of the two front wheels 30a are changed. As the steering mechanism of the moving body 12, an Ackermann mechanism is used in which the steering angle of the inner wheel is larger than the steering angle of the outer wheel in the two front wheels 30a.
The input device 38 includes units for throttle operation, brake operation, and the like, and commands based on operation inputs to these are transmitted from the remote operation device 14 to the moving body 12.
この実施形態では、カメラ20が撮像手段に相当する。情報検出手段は、速度検出器18、測位ユニット22、姿勢センサ24および方位センサ26を含む。操舵ユニット52が入力手段に相当する。遠隔操作装置14のCPU44は、決定手段および第1〜第4生成手段としても機能する。モニタ36が表示手段に相当する。 In this embodiment, the camera 20 corresponds to an imaging unit. The information detection means includes a speed detector 18, a positioning unit 22, an attitude sensor 24 and an azimuth sensor 26. The steering unit 52 corresponds to input means. The CPU 44 of the remote operation device 14 also functions as a determination unit and first to fourth generation units. The monitor 36 corresponds to display means.
ついで、図3を参照して、遠隔操作システム10の遠隔操作装置14における画像処理動作の一例について説明する。遠隔操作装置14では、走行している移動体12を後方から見た様子をモニタ36に表示するための画像処理が行われる。 Next, an example of an image processing operation in the remote operation device 14 of the remote operation system 10 will be described with reference to FIG. In the remote control device 14, image processing is performed to display on the monitor 36 a state in which the traveling moving body 12 is viewed from behind.
まず、遠隔操作装置14のCPU44によって、移動体12からの過去情報が受信されたか否かが判断され(ステップS1)、過去情報が受信されれば当該過去情報がHDD50に記憶され(ステップS3)、ステップS5に進む。一方、ステップS1において過去情報が受信されなければ直接ステップS5に進む。ステップS5では、CPU44によって、現時点での最新の移動体情報が受信されたか否かが判断される。移動体12からの当該移動体情報が受信されていなければステップS1に戻り、一方、当該移動体情報が受信されれば、CPU44によって、当該移動体情報に基づいてHDD50に記憶された過去情報の中から過去情報が選択され仮想視点Vが決定される(ステップS7)。仮想視点Vとは、現在の移動体12の位置の背後に設定される視点をいい、この実施形態では、現時点までの環境画像撮像時の撮像手段の位置(カメラ20の視点Aの位置)の中から選択される。 First, the CPU 44 of the remote control device 14 determines whether or not past information from the moving body 12 has been received (step S1). If past information is received, the past information is stored in the HDD 50 (step S3). The process proceeds to step S5. On the other hand, if past information is not received in step S1, the process proceeds directly to step S5. In step S5, the CPU 44 determines whether or not the latest moving body information at the current time has been received. If the mobile body information from the mobile body 12 is not received, the process returns to step S1. On the other hand, if the mobile body information is received, the CPU 44 stores the past information stored in the HDD 50 based on the mobile body information. Past information is selected from among them, and a virtual viewpoint V is determined (step S7). The virtual viewpoint V refers to a viewpoint set behind the current position of the moving body 12, and in this embodiment, the position of the imaging means (position of the viewpoint A of the camera 20) at the time of environmental image capturing up to the present time. It is selected from the inside.
ここで、過去情報(主に環境画像および仮想視点)の選択方法について図4を参照して説明する。
図4は過去情報の選択方法を説明するための図解図である。図4において、横軸は移動体12の累積移動距離である。白抜き丸で示されたF1,F2およびF3は、過去情報に含まれる累積移動距離を示し、矢印方向に移るほど累積移動距離が大きくなる。累積移動距離がF1,F2およびF3であるときに撮像された環境画像およびカメラ20の視点Aの位置はそれぞれ、過去情報に含まれHDD50に記憶されている。Nは現在の移動体12の位置での累積移動距離であり、図4(b)には図4(a)よりも時間的に後の状態が示されている。
Here, a selection method of past information (mainly environment image and virtual viewpoint) will be described with reference to FIG.
FIG. 4 is an illustrative view for explaining a method of selecting past information. In FIG. 4, the horizontal axis is the cumulative moving distance of the moving body 12. F1, F2, and F3 indicated by white circles indicate the cumulative movement distances included in the past information, and the cumulative movement distance increases as the direction of the arrow moves. The environmental image captured when the cumulative moving distance is F1, F2, and F3 and the position of the viewpoint A of the camera 20 are included in the past information and stored in the HDD 50, respectively. N is the cumulative moving distance at the current position of the moving body 12, and FIG. 4 (b) shows a state later in time than FIG. 4 (a).
この実施形態では、移動体12の現在位置から所定距離Gだけ(たとえば6m)手前の地点に最も近い位置で得られた過去情報が選択され、この過去情報に含まれる環境画像の撮影ポイントが仮想視点Vとされる。すなわち、ステップS7では、CPU44によって、ステップS5で取得した移動体情報に含まれる累積移動距離Nから所定距離Gを差し引いた距離が求められ、その距離に最も近い累積移動距離を含む過去情報が選択される。
具体的には次のようにして選択される。
図4に示す距離D1およびD2は、数1によって求められる。
In this embodiment, past information obtained at a position closest to a point in front of the current position of the moving body 12 by a predetermined distance G (for example, 6 m) is selected, and the shooting point of the environmental image included in this past information is a virtual point. Viewpoint V is assumed. That is, in step S7, the CPU 44 obtains a distance obtained by subtracting the predetermined distance G from the accumulated movement distance N included in the moving body information acquired in step S5, and selects past information including the accumulated movement distance closest to the distance. Is done.
Specifically, it is selected as follows.
The distances D1 and D2 shown in FIG.
図4(a)の時点では、D1<D2であるので、累積移動距離F1を含む過去情報が選択される。すなわち、累積移動距離がF1であるときに撮像された環境画像が選択され、累積移動距離がF1であるときのカメラ20の視点Aの位置が仮想視点Vとして決定される。図4(a)よりも現在の累積移動距離Nが大きくなった図4(b)の時点では、D1>D2であるので、累積移動距離F2を含む過去情報が選択される。すなわち、累積移動距離がF2であるときに撮像された環境画像が選択され、累積移動距離がF2であるときのカメラ20の視点Aの位置が仮想視点Vとして決定される。 Since D1 <D2 at the time of FIG. 4A, the past information including the cumulative movement distance F1 is selected. That is, the environmental image captured when the cumulative movement distance is F1 is selected, and the position of the viewpoint A of the camera 20 when the cumulative movement distance is F1 is determined as the virtual viewpoint V. At the time of FIG. 4B when the current cumulative travel distance N becomes larger than that in FIG. 4A, since D1> D2, past information including the cumulative travel distance F2 is selected. That is, the environment image captured when the cumulative movement distance is F2 is selected, and the position of the viewpoint A of the camera 20 when the cumulative movement distance is F2 is determined as the virtual viewpoint V.
図3に戻って、その後、CPU44によって、ステップS7において選択された過去情報に基づいて、環境画像Iに基づく3次元環境画像Kと仮想視点Vとが、仮想空間としてのグローバル座標系GCに生成される(ステップS9)。
この処理について図5から図7を参照して説明する。
Returning to FIG. 3, thereafter, the CPU 44 generates a three-dimensional environment image K and a virtual viewpoint V based on the environment image I in the global coordinate system GC as a virtual space based on the past information selected in step S7. (Step S9).
This process will be described with reference to FIGS.
図5はカメラ20によって撮像される環境画像Iが表されるy軸とz軸とからなる2次元直交座標系C1を示す図解図である。環境画像Iは、レンズ20a前方の全風景を含む2次元の魚眼画像(円形画像)である。環境画像Iの中心点はカメラ20の視点A(図2参照)に対応している。カメラ撮影中心方向(図6に示す座標系C2におけるx軸方向)は、図5の紙面に直交する方向である。 FIG. 5 is an illustrative view showing a two-dimensional orthogonal coordinate system C1 composed of a y-axis and a z-axis on which an environmental image I captured by the camera 20 is represented. The environment image I is a two-dimensional fisheye image (circular image) including the entire landscape in front of the lens 20a. The center point of the environmental image I corresponds to the viewpoint A (see FIG. 2) of the camera 20. The camera photographing center direction (x-axis direction in the coordinate system C2 shown in FIG. 6) is a direction orthogonal to the paper surface of FIG.
図6は、2次元の環境画像Iを3次元変換した3次元環境画像Kが表示される3次元直交座標系C2を示す図解図である。座標系C2では、原点Oはカメラ20の視点Aであり、x軸方向はカメラ撮影中心方向、y軸方向はx軸方向が水平方向の1方向であるときにx軸方向に直交する水平方向の他の方向、z軸方向はx軸方向が水平方向の1方向であるときの鉛直方向である。 FIG. 6 is an illustrative view showing a three-dimensional orthogonal coordinate system C2 on which a three-dimensional environment image K obtained by three-dimensionally converting the two-dimensional environment image I is displayed. In the coordinate system C2, the origin O is the viewpoint A of the camera 20, the x-axis direction is the camera photographing center direction, and the y-axis direction is the horizontal direction orthogonal to the x-axis direction when the x-axis direction is one of the horizontal directions. The other direction, the z-axis direction, is the vertical direction when the x-axis direction is one of the horizontal directions.
図7は、仮想空間としてのグローバル座標系GCを示す図解図である。グローバル座標系GCは、X軸、Y軸およびZ軸からなる3次元直交座標系である。グローバル座標系GCの原点Oは、移動体12のマイコン16が起動したときのカメラ20の視点Aの位置である。X軸方向が南北方向、Y軸方向が東西方向、Z軸方向が鉛直方向である。 FIG. 7 is an illustrative view showing a global coordinate system GC as a virtual space. The global coordinate system GC is a three-dimensional orthogonal coordinate system including an X axis, a Y axis, and a Z axis. The origin O of the global coordinate system GC is the position of the viewpoint A of the camera 20 when the microcomputer 16 of the moving body 12 is activated. The X-axis direction is the north-south direction, the Y-axis direction is the east-west direction, and the Z-axis direction is the vertical direction.
図5に示す平面形状の環境画像Iは、図6に示す立体形状(ここでは半球状)の3次元環境画像Kに変換されて図7に示すグローバル座標系GCに生成される。座標系C2における3次元環境画像Kの座標P(x,y,z)は、座標系C1における環境画像Iの座標P(py,pz)に基づいて数2によって求められる。P(x,y,z)は、図6に示す半球面(3次元環境画像K)上の点である。 The planar-shaped environment image I shown in FIG. 5 is converted into a three-dimensional environment image K having a three-dimensional shape (here, hemispherical) shown in FIG. 6 and generated in the global coordinate system GC shown in FIG. The coordinates P (x, y, z) of the three-dimensional environment image K in the coordinate system C2 are obtained by Expression 2 based on the coordinates P (py, pz) of the environment image I in the coordinate system C1. P (x, y, z) is a point on the hemisphere (three-dimensional environment image K) shown in FIG.
ここで、φは原点Oからy軸プラス方向の線分と線分OPとのなす角度であり、その範囲は0≦φ<2πである。φは(py,pz)とtanの逆関数(arctan)とを用いて求めることができる。また、θは、図6に示すように、原点Oと点Pとを結ぶ線分POとx軸とのなす角度である。3次元環境画像Kの形状は、レンズ20aの特性によって決定される。このことからθは、環境画像Iの座標P(py,pz)に基づいて所定の数式を用いて算出することやHDD50に記憶されているテーブルデータから取得することによって得られる。θは0≦θ≦π/2である。さらに、Jは、図6に示すように、原点Oから点Pまでの距離(3次元環境画像Kの半径)であり、任意の値に設定される。この実施形態では、Jがたとえば10mに設定される。 Here, φ is an angle formed by the line segment OP in the y-axis plus direction from the origin O, and the range is 0 ≦ φ <2π. φ can be obtained by using (py, pz) and an inverse function (arctan) of tan. Further, θ is an angle formed by a line segment PO connecting the origin O and the point P and the x axis, as shown in FIG. The shape of the three-dimensional environment image K is determined by the characteristics of the lens 20a. From this, θ is obtained by calculating using a predetermined mathematical formula based on the coordinates P (py, pz) of the environment image I or by obtaining from the table data stored in the HDD 50. θ is 0 ≦ θ ≦ π / 2. Further, J is the distance from the origin O to the point P (radius of the three-dimensional environment image K) as shown in FIG. 6, and is set to an arbitrary value. In this embodiment, J is set to 10 m, for example.
具体的には、次のようにして座標系C2における3次元環境画像Kの座標P(x,y,z)が求められる。
まず、環境画像Iが座標系C1に配置される。環境画像Iは、その中心点が座標系C1の原点Oに一致するように配置される。そして、環境画像Iを複数(たとえば縦16×横16=256:図5では図面の簡略化のため縦6×横6=36とする)の正方形状の画像片IPに分割し、座標系C1における各画像片IPの頂点の座標P(py,pz)が取得される。つづいて、取得した座標P(py,pz)に基づいて座標系C2における座標P(x,y,z)が数2によって求められる。
Specifically, the coordinates P (x, y, z) of the three-dimensional environment image K in the coordinate system C2 are obtained as follows.
First, the environment image I is arranged in the coordinate system C1. The environment image I is arranged so that the center point thereof coincides with the origin O of the coordinate system C1. The environment image I is divided into a plurality of square image pieces IP (for example, vertical 16 × horizontal 16 = 256: vertical 6 × horizontal 6 = 36 in FIG. 5 for simplification of the drawing), and the coordinate system C1. The coordinate P (py, pz) of the vertex of each image piece IP in is acquired. Subsequently, based on the acquired coordinates P (py, pz), the coordinates P (x, y, z) in the coordinate system C2 are obtained by Equation 2.
このようにして画像片IPの4頂点についてそれぞれ座標系C2における座標P(x,y,z)を求める。そして、座標系C2における画像片IPの4頂点の座標P(x,y,z)がそれぞれ、仮想視点Vからの撮影時の過去情報に含まれるカメラ20の姿勢(ロール角r、ピッチ角p)および向き(方位角y)とカメラ20の位置(xc,yc,zc)とを用いて、グローバル座標系GCにおける座標(xG,yG,zG)に変換される。このような座標変換は、一般に軸周りの回転と平行移動とによって行うことができ、数3によって行われる。 In this way, the coordinates P (x, y, z) in the coordinate system C2 are obtained for the four vertices of the image piece IP. Then, the coordinates P (x, y, z) of the four vertices of the image piece IP in the coordinate system C2 are respectively the postures of the camera 20 (roll angle r, pitch angle p) included in the past information at the time of shooting from the virtual viewpoint V. ) And orientation (azimuth angle y) and the position (x c , y c , z c ) of the camera 20 are converted into coordinates (x G , y G , z G ) in the global coordinate system GC. Such coordinate conversion can be generally performed by rotation and translation around an axis, and is performed by Equation 3.
ここで、ロール角r、ピッチ角pおよび方位角yはそれぞれ、オイラー角と呼ばれ、グローバル座標系GCにおける座標系C2のx軸周りの回転角、y軸周りの回転角およびz軸周りの回転角であり、各軸右ねじが進む方向が正である。ロールおよびピッチの原点はグローバル座標系GCの鉛直上方向であり、方位の原点はグローバル座標系GCの真北方向である。 Here, the roll angle r, the pitch angle p, and the azimuth angle y are called Euler angles, respectively. In the global coordinate system GC, the rotation angle around the x axis, the rotation angle around the y axis, and the z axis around the coordinate system C2. It is a rotation angle, and the direction in which each axis right-hand thread advances is positive. The origin of roll and pitch is the vertical upward direction of the global coordinate system GC, and the origin of orientation is the true north direction of the global coordinate system GC.
このようにしてグローバル座標系GCにおける画像片IPの4頂点の座標がそれぞれ求められる。すなわちグローバル座標系GCにおける画像片IPの位置が特定される。そして、当該特定された位置に画像片IPが生成(配置)される。この処理を全ての画像片IPについて行うことによって、図7に示すように、グローバル座標系GCの3次元空間に環境画像Iを3次元で表す3次元環境画像Kが生成される。また、3次元環境画像Kの生成とともに、座標系C2の原点Oに位置する仮想視点Vがグローバル座標系GCにおけるカメラ20の位置(xc,yc,zc)に生成される。 In this way, the coordinates of the four vertices of the image piece IP in the global coordinate system GC are obtained. That is, the position of the image piece IP in the global coordinate system GC is specified. Then, the image piece IP is generated (arranged) at the specified position. By performing this process for all image pieces IP, as shown in FIG. 7, a three-dimensional environment image K representing the environment image I in three dimensions in the three-dimensional space of the global coordinate system GC is generated. Along with the generation of the three-dimensional environment image K, the virtual viewpoint V located at the origin O of the coordinate system C2 is generated at the position (x c , y c , z c ) of the camera 20 in the global coordinate system GC.
このようなステップS9の処理には、一般的に使用できるグラフィックライブラリを用いることができる。この実施形態では、グラフィックライブラリとしてシリコングラフィック社が提供しているOpenGL(登録商標)が用いられる。ステップS9の処理は、OpenGL(登録商標)によって提供される関数{glTexcoord2D(px,py)およびglVertex3D(x,y,z):px,pyは図5に示す座標系C1での座標値であり、x,y,zは図7に示す座標系GCでの座標値である}を用いて一連の動作として行われる。 A graphic library that can be generally used can be used for the processing in step S9. In this embodiment, OpenGL (registered trademark) provided by Silicon Graphics is used as the graphic library. The process of step S9 is a function {glTexcoord2D (px, py) and glVertex3D (x, y, z) provided by OpenGL (registered trademark): px, py are coordinate values in the coordinate system C1 shown in FIG. , X, y, z are coordinate values in the coordinate system GC shown in FIG.
なお、実際の3次元環境画像Kは、平面形状の画像片IPを繋ぎ合わせることによって、多面体(ここでは256面体)のドーム形状になる。図6および図7には、図面の簡略化のために半球状の3次元環境画像Kが示されている。 The actual three-dimensional environment image K becomes a polyhedral (256-faced) dome shape by connecting the planar image pieces IP together. 6 and 7 show a hemispherical three-dimensional environment image K for simplification of the drawings.
図3に戻って、ステップS9の後、CPU44によって、移動体モデルM、第1補助モデルM1、第2補助モデルM2、基準点B、および切り出し中心点Qがグローバル座標系GCに生成される(ステップS11)。CPU44は、ステップS5において受信された最新の移動体情報およびHDD50に記憶された移動体モデルMに関するデータに基づいて、移動体12を表す移動体モデルM、移動体12の位置を示す基準点B、および投影画像を切り出すときの中心となる切り出し中心点Qをグローバル座標系GCに生成する。また、CPU44は、ステップS5において受信された最新の移動体情報および舵角センサ52bの検出結果(操舵ユニット52からの入力量)に基づいて、操舵ユニット52からの入力量の指標となる第1補助モデルM1および第2補助モデルM2をグローバル座標系GCに生成する。
これらの処理について図8から図10を参照して説明する。
Returning to FIG. 3, after step S9, the moving body model M, the first auxiliary model M1, the second auxiliary model M2, the reference point B, and the cut-out center point Q are generated in the global coordinate system GC by the CPU 44 (see FIG. 3). Step S11). Based on the latest mobile body information received in step S5 and data related to the mobile body model M stored in the HDD 50, the CPU 44 uses the mobile body model M representing the mobile body 12 and the reference point B indicating the position of the mobile body 12. , And a cut-out center point Q, which is the center when cutting out the projected image, is generated in the global coordinate system GC. The CPU 44 also serves as a first indicator of the input amount from the steering unit 52 based on the latest moving body information received in step S5 and the detection result of the steering angle sensor 52b (input amount from the steering unit 52). The auxiliary model M1 and the second auxiliary model M2 are generated in the global coordinate system GC.
These processes will be described with reference to FIGS.
まず、図8を参照して移動体モデルMの生成方法について説明する。図8は、移動体モデルの生成方法を説明するための図解図である。説明を簡単にするために、図8に示す移動体モデルを立方体形状とする。
図8に示すように、移動体モデルは点群とそれらのうちの対応する2点間を結ぶ直線とによって移動体の形状のイメージを表現できる。移動体モデルは、その中心が原点Oに位置し、その前方がx軸方向を向きかつその上方がz軸方向を向くように3次元直交座標系C3に配置される。移動体モデルの各頂点には座標値が付与され、たとえば移動体モデルを示す立方体の各辺の長さを2とすると、頂点S1は(1,1,1)、頂点S2は(1,−1,1)として表すことができる。
そして、立方体の各頂点が、数4によってグローバル座標系GCに座標変換される。
First, a method for generating the moving object model M will be described with reference to FIG. FIG. 8 is an illustrative view for explaining a method of generating a mobile object model. In order to simplify the description, the moving body model shown in FIG.
As shown in FIG. 8, the moving body model can express an image of the shape of the moving body by a point group and a straight line connecting two corresponding points among them. The moving body model is arranged in the three-dimensional orthogonal coordinate system C3 such that its center is located at the origin O, its front faces the x-axis direction, and its upper side faces the z-axis direction. A coordinate value is given to each vertex of the moving body model. For example, if the length of each side of the cube indicating the moving body model is 2, the vertex S1 is (1, 1, 1) and the vertex S2 is (1,- 1,1).
Then, each vertex of the cube is coordinate-transformed into the global coordinate system GC by Equation 4.
ここで、(xm,ym,zm)は移動体情報から得られるグローバル座標系GCでの移動体12の現在の位置である。(xb,yb,zb)は座標系C3における移動体モデルを構成する点の座標値(座標変換対象となる座標値)である。(xa,ya,za)は(xb,yb,zb)をグローバル座標系GCに座標変換した後の座標値である。r,pおよびyはそれぞれ、移動体情報から得られるグローバル座標系GCでの移動体12の現在のロール角、ピッチ角および方位角であり、この実施形態では、カメラ20のロール角r、ピッチ角pおよび方位角yと同値である。 Here, (x m , y m , z m ) is the current position of the moving object 12 in the global coordinate system GC obtained from the moving object information. (X b , y b , z b ) are the coordinate values (coordinate values to be subjected to coordinate conversion) of the points constituting the moving body model in the coordinate system C3. (X a , y a , z a ) are coordinate values after (x b , y b , z b ) are transformed into the global coordinate system GC. r, p, and y are the current roll angle, pitch angle, and azimuth angle of the moving body 12 in the global coordinate system GC obtained from the moving body information. In this embodiment, the roll angle r, pitch of the camera 20 It is equivalent to the angle p and the azimuth angle y.
そして、グローバル座標系GCに座標変換された各頂点を直線で結ぶことによって、立方体の移動体モデルがグローバル座標系GCに生成される。すなわち移動体モデル全体がグローバル座標系の画像に変換される。 Then, a cuboid moving body model is generated in the global coordinate system GC by connecting the vertices whose coordinates are converted to the global coordinate system GC with straight lines. That is, the entire moving body model is converted into an image of the global coordinate system.
実際の移動体モデルMは、点群とそれらのうちの対応する2点間を結ぶ直線とによって移動体12のモデルを形成する。また、実際の移動体モデルMは、その基準点Bが原点Oに位置し、その前方がx軸方向を向きかつその上方がz軸方向を向くように座標系C3に配置される。移動体モデルMに関するデータとしては、少なくとも点群の各点について座標系C3における座標値を付与しておく。ステップS9と同様に数4を用いて点群の各点を座標変換しかつ対応する2点を直線で結ぶことによって、グローバル座標系GCに移動体モデルMを生成できる(図7参照)。 The actual moving body model M forms a model of the moving body 12 by a point group and a straight line connecting two corresponding points. The actual moving body model M is arranged in the coordinate system C3 such that the reference point B is located at the origin O, the front thereof faces the x-axis direction, and the upper side faces the z-axis direction. As data relating to the moving body model M, coordinate values in the coordinate system C3 are assigned to at least each point of the point group. As in step S9, the moving body model M can be generated in the global coordinate system GC by performing coordinate transformation of each point of the point group using Equation 4 and connecting the corresponding two points with a straight line (see FIG. 7).
このようにして移動体モデルMが仮想空間としてのグローバル座標系GCに生成される。また、移動体12の位置を示す基準点Bと投影画像を切り出すときの中心となる切り出し中心点Qとについても同様にグローバル座標系GCに生成される。この実施形態では、切り出し中心点Qが移動体モデルMの前方正面に所定距離だけ離れた位置に設定される。具体的には、たとえば基準点Bから6m前方の位置に切り出し中心点Qが設定される。 In this way, the moving body model M is generated in the global coordinate system GC as a virtual space. Similarly, the reference point B indicating the position of the moving body 12 and the cut-out center point Q that is the center when the projected image is cut out are also generated in the global coordinate system GC. In this embodiment, the cut-out center point Q is set at a position that is a predetermined distance away in front of the moving object model M. Specifically, for example, the cut center point Q is set at a position 6 m ahead of the reference point B.
なお、移動体モデルが直線を含まず点群だけで表現される場合には、点群の全ての点の座標値を数4によってグローバル座標系GCに座標変換すればよい。 If the moving body model does not include a straight line and is expressed only by the point group, the coordinate values of all the points in the point group may be transformed into the global coordinate system GC by Equation 4.
また、移動体モデルMの前輪および後輪を表す点群の座標値は入力機器38からの入力量に応じて変更される。これによって、移動体モデルMの前輪が左または右に傾いている様子等を表現できる。 Further, the coordinate values of the point group representing the front wheel and the rear wheel of the moving body model M are changed according to the input amount from the input device 38. As a result, it is possible to express a state in which the front wheel of the moving body model M is tilted to the left or right.
ついで、図9を参照して、第1補助モデルM1の生成方法について説明する。
図9は、第1補助モデルM1の生成方法を説明するための図解図である。図9には、座標系C3をz軸のプラス側(図8参照)から見た状態が示されている。また、図9には、操作部52aのハンドルが左に切られた状態(左折時の状態)が示されている。説明を簡単にするために、まず座標系C3におけるx軸座標値およびy軸座標値について考える。
Next, a method for generating the first auxiliary model M1 will be described with reference to FIG.
FIG. 9 is an illustrative view for explaining a method of generating the first auxiliary model M1. FIG. 9 shows a state in which the coordinate system C3 is viewed from the positive side of the z axis (see FIG. 8). FIG. 9 shows a state in which the handle of the operation unit 52a is turned to the left (state when turning left). In order to simplify the explanation, first, the x-axis coordinate value and the y-axis coordinate value in the coordinate system C3 will be considered.
図9に示すように、第1補助モデルM1は、移動体モデルMの左側の点ELと移動体モデルMの右側の点ERとを結ぶことによって直線状のイメージとして表現される。この実施形態では、左折時に点ELが移動体モデルMの旋回中心点Rに設定される。一般に、移動体12のような4輪車両では、左右の後輪および操舵輪である左右の前輪の回転軸の延長線が交わる点が旋回中心点となる。移動体モデルMの後輪の回転軸の延長線はy軸に一致し、y軸上で左右の前輪の回転軸の延長線が交わる点が旋回中心点Rとなる。このことから、旋回中心点Rは(0,r)で表される。旋回中心点Rのy軸座標値rは数5によって求められる。 As shown in FIG. 9, the first auxiliary model M1 is expressed as a linear image by connecting a point EL on the left side of the moving body model M and a point ER on the right side of the moving body model M. In this embodiment, the point EL is set to the turning center point R of the moving body model M when making a left turn. In general, in a four-wheeled vehicle such as the moving body 12, the turning center point is a point where the extension lines of the rotation axes of the left and right rear wheels and the left and right front wheels that are steering wheels intersect. The extension line of the rotation axis of the rear wheel of the moving body model M coincides with the y axis, and the turning center point R is the point where the extension lines of the rotation axes of the left and right front wheels intersect on the y axis. From this, the turning center point R is represented by (0, r). The y-axis coordinate value r of the turning center point R is obtained by Equation 5.
ここで、Lは、左側の前輪の中心点FLと右側の前輪の中心点FRとの中間点FMと、基準点Bとの距離である。すなわちLは移動体12のホイルベース(前後の車軸間距離)である。また、Wは中心点FLと中心点FRとの距離である。すなわちWは左右の前輪の中心点間の距離である。中心点FL,FRおよび中間点FMの座標値、ならびにLおよびWの値は、予めHDD50に記憶されている。αLは左側の前輪の舵角である。図9から中心点FLと旋回中心点Rとを結ぶ直線とy軸とがなす角度もαLとなることがわかる。CPU44は、操舵ユニット52からの入力量に基づいてHDD50のテーブルデータから舵角αLを取得する。このように数5によって旋回中心点Rひいては点EL(第1補助モデルM1の一方の端点)のy軸座標値rが求められる。 Here, L is the distance between the reference point B and the intermediate point FM between the center point FL of the left front wheel and the center point FR of the right front wheel. That is, L is the wheel base (distance between the front and rear axles) of the moving body 12. W is the distance between the center point FL and the center point FR. That is, W is the distance between the center points of the left and right front wheels. The coordinate values of the center points FL, FR and the intermediate point FM, and the values of L and W are stored in the HDD 50 in advance. αL is the rudder angle of the left front wheel. It can be seen from FIG. 9 that the angle formed between the straight line connecting the center point FL and the turning center point R and the y axis is also αL. The CPU 44 acquires the steering angle αL from the table data in the HDD 50 based on the input amount from the steering unit 52. In this way, the y-axis coordinate value r of the turning center point R and then the point EL (one end point of the first auxiliary model M1) is obtained by Equation 5.
また、点ER(第1補助モデルM1の他方の端点)は、点ELと中間点FMとを結ぶ直線の延長線上かつ点ELから中間点FMまでの距離分だけ中間点FMから離れた位置に設定される。したがって、点ERは(2L,−r)で表すことができる。 Further, the point ER (the other end point of the first auxiliary model M1) is on the extended line of the straight line connecting the point EL and the intermediate point FM and at a position separated from the intermediate point FM by the distance from the point EL to the intermediate point FM. Is set. Therefore, the point ER can be represented by (2L, -r).
右左折時(ここでは左折時)において予測される移動体モデルMの進行方向は、旋回中心点Rと中間点FMとを結ぶ直線に直交する方向である。したがって、点ELと点ERとを結ぶ直線によって表現される第1補助モデルM1は、移動体モデルMの進行方向に直交しかつ移動体モデルMに対して横方向に延びる。 The traveling direction of the moving body model M predicted at the time of right / left turn (here, at the time of left turn) is a direction orthogonal to a straight line connecting the turning center point R and the intermediate point FM. Therefore, the first auxiliary model M1 expressed by a straight line connecting the point EL and the point ER is orthogonal to the traveling direction of the moving body model M and extends in the lateral direction with respect to the moving body model M.
なお、舵角αLに代えて右側の前輪の舵角αRを用いて旋回中心点R(点EL)のy軸座標値rを求めてもよい。この場合は、数5において、αLに代えてαRを用いるとともにW/2を加算することに代えてW/2を減算すればよい。
また、右折時には点ERを旋回中心点Rに設定して点ERのy軸座標値rを求め、点ELの座標値を(2L,r)とすればよい。
Note that the y-axis coordinate value r of the turning center point R (point EL) may be obtained using the steering angle αR of the right front wheel instead of the steering angle αL. In this case, in Equation 5, αR may be used instead of αL, and W / 2 may be subtracted instead of adding W / 2.
Further, when turning right, the point ER is set as the turning center point R to obtain the y-axis coordinate value r of the point ER, and the coordinate value of the point EL may be (2L, r).
一方、操作部52aのハンドルの舵角が0°の場合すなわち移動体モデルMが直進する場合、点ELは(L,r)で表され、点ELは(L,−r)で表される。この場合のy軸座標値rには予めHDD50に記憶されている固定値が用いられる。図9には、この場合の点ELおよび点ERが白抜きの丸で示され、これらを結ぶ直線が一点鎖線で示されている。この場合も、第1補助モデルM1は、移動体モデルMの進行方向に直交しかつ移動体モデルMに対して横方向に延びるイメージになる。 On the other hand, when the steering angle of the handle of the operation unit 52a is 0 °, that is, when the moving body model M goes straight, the point EL is represented by (L, r), and the point EL is represented by (L, -r). . In this case, a fixed value stored in advance in the HDD 50 is used as the y-axis coordinate value r. In FIG. 9, the point EL and the point ER in this case are indicated by white circles, and a straight line connecting them is indicated by a one-dot chain line. Also in this case, the first auxiliary model M1 has an image that is orthogonal to the traveling direction of the moving body model M and extends in the lateral direction with respect to the moving body model M.
ここで、座標系C3における点ELおよび点ERのz軸座標値は、予めHDD50に記憶されている固定値を用いればよい。この実施形態では、基準点Bの高さと前輪30aの下端の高さとの差Hz(図2参照)に対応するように点ELおよび点ERのz軸座標値がそれぞれ設定される。したがって、この実施形態では、第1補助モデルM1が移動体モデルMの下方を通る直線として表現される。 Here, as the z-axis coordinate values of the points EL and ER in the coordinate system C3, fixed values stored in advance in the HDD 50 may be used. In this embodiment, the z-axis coordinate values of the point EL and the point ER are set so as to correspond to the difference Hz (see FIG. 2) between the height of the reference point B and the height of the lower end of the front wheel 30a. Therefore, in this embodiment, the first auxiliary model M1 is expressed as a straight line passing below the moving body model M.
このようにして得られる点ELと点ERとを上述と同様に数4を用いて座標変換しかつこれらを直線で結ぶことによって、グローバル座標系GCに第1補助モデルM1が生成される。 The first auxiliary model M1 is generated in the global coordinate system GC by converting the coordinates of the point EL and the point ER obtained in this way using Equation 4 in the same manner as described above and connecting them with a straight line.
ついで、図10および図11を参照して、第2補助モデルM2の生成方法について説明する。
図10および図11は、第2補助モデルM2の生成方法を説明するための図解図である。図10および図11には、座標系C3をz軸のプラス側(図8参照)から見た状態が示されている。また、図10には左折時の状態が示され、図11には直進時の状態が示されている。上述の第1補助モデルM1と同様に、まず座標系C3におけるx軸座標値およびy軸座標値について考える。
Next, a method for generating the second auxiliary model M2 will be described with reference to FIGS.
10 and 11 are illustrative views for explaining a method for generating the second auxiliary model M2. 10 and 11 show a state in which the coordinate system C3 is viewed from the positive side of the z axis (see FIG. 8). FIG. 10 shows a state when turning left, and FIG. 11 shows a state when going straight. Similar to the first auxiliary model M1, the x-axis coordinate value and the y-axis coordinate value in the coordinate system C3 are first considered.
図10に示すように、第2補助モデルM2は移動体モデルMの移動経路を表す点群GLおよび点群GRを含む。点群GLは点PL1〜PL8によって構成され、点群GRは点PR1〜PR8によって構成される。 As shown in FIG. 10, the second auxiliary model M2 includes a point group GL and a point group GR that represent the movement path of the moving body model M. The point group GL includes points PL1 to PL8, and the point group GR includes points PR1 to PR8.
右左折時(ここでは左折時)において中心点FLは、旋回中心点Rを中心とする半径r1の円周上を移動することになる。点群GLを構成する点PL1〜PL8は、中心点FLの移動経路を表すように、当該円周上に所定間隔INを有して中心点FL側から順に配列される。このような点PL1〜PL8の座標値は数6によって求められる。 When turning right or left (here, when turning left), the center point FL moves on the circumference of the radius r1 with the turning center point R as the center. The points PL1 to PL8 constituting the point group GL are arranged in order from the center point FL side with a predetermined interval IN on the circumference so as to represent the movement path of the center point FL. The coordinate values of such points PL1 to PL8 are obtained by Equation 6.
ここで、nは中心点FLから見て何番目の点PLであるのかを示す整数(ここでは1〜8)である。また、中心点FLの旋回半径であるr1は、上述の数5によって求められるrを用いて、L2+(r−W/2)2の平方根で求められる。θLは、中心点FLと旋回中心点Rとを結ぶ直線と、点PL1と旋回中心点Rとを結ぶ直線とがなす角度であり、IN/r1[rad]で求められる。所定間隔INは、予めHDD50に記憶されている固定値であり、たとえば0.5mである。なお、右左折時の所定間隔INは、点PLnと点PLn+1とを結ぶ円弧の長さである。 Here, n is an integer (in this case, 1 to 8) indicating what number point PL is seen from the center point FL. Further, r1 which is the turning radius of the center point FL is obtained by the square root of L 2 + (r−W / 2) 2 using r obtained by the above equation 5. θL is an angle formed by a straight line connecting the center point FL and the turning center point R and a straight line connecting the point PL1 and the turning center point R, and is obtained by IN / r1 [rad]. The predetermined interval IN is a fixed value stored in advance in the HDD 50, and is 0.5 m, for example. It should be noted that the predetermined interval IN at the time of turning left and right is the length of an arc connecting point PLn and point PLn + 1.
また、右左折時(ここでは左折時)において中心点FRは、旋回中心点Rを中心とする半径r2の円周上を移動することになる。点群GRを構成する点PR1〜PR8は、中心点FRの移動経路を表すように、当該円周上に所定間隔INを有して中心点FR側から順に配列される。このような点PR1〜PR8の座標値は数7によって求められる。 Further, when turning right or left (here, when turning left), the center point FR moves on the circumference of the radius r2 centering on the turning center point R. The points PR1 to PR8 constituting the point group GR are sequentially arranged from the center point FR side with a predetermined interval IN on the circumference so as to represent the movement path of the center point FR. The coordinate values of such points PR1 to PR8 are obtained by Equation 7.
ここで、nは中心点FRから見て何番目の点PRであるのかを示す整数(ここでは1〜8)である。また、中心点FRの旋回半径であるr2は、上述の数5によって求められるrを用いて、L2+(r+W/2)2の平方根で求められる。また、θRは、中心点FRと旋回中心点Rとを結ぶ直線と、点PR1と旋回中心点Rとを結ぶ直線とがなす角度であり、IN/r2[rad]で求められる。 Here, n is an integer (1 to 8 in this case) indicating what number point PR is seen from the center point FR. Further, r2 which is the turning radius of the center point FR is obtained by the square root of L 2 + (r + W / 2) 2 using r obtained by the above equation 5. ΘR is an angle formed by a straight line connecting the center point FR and the turning center point R and a straight line connecting the point PR1 and the turning center point R, and is obtained by IN / r2 [rad].
一方、図11に示すように、操作部52aのハンドルの切り角が0°の場合すなわち移動体モデルMが直進する場合、中心点FLおよび中心点FRは、x軸と平行な直線上を移動することになる。この場合の点PL1〜PL8の座標値は数8によって求められる。 On the other hand, as shown in FIG. 11, when the turning angle of the handle of the operation unit 52a is 0 °, that is, when the moving body model M goes straight, the center point FL and the center point FR move on a straight line parallel to the x axis. Will do. In this case, the coordinate values of the points PL1 to PL8 are obtained by Equation 8.
なお、直進時の所定間隔INは、点PLnと点PLn+1とを結ぶ直線の長さである。
同様に、この場合の点PR1〜PR8の座標値は数9によって求められる。
Note that the predetermined interval IN when going straight is the length of a straight line connecting the points PLn and PLn + 1.
Similarly, the coordinate values of the points PR1 to PR8 in this case are obtained by Equation 9.
このように、移動体モデルMが右左折する場合は数6および数7によって点PL1〜PL8および点PR1〜PR8の座標値が求められる。移動体モデルMが直進する場合は数8および数9によって点PL1〜PL8および点PR1〜PR8の座標値が求められる。 Thus, when the moving body model M turns right and left, the coordinate values of the points PL1 to PL8 and the points PR1 to PR8 are obtained by the equations 6 and 7. When the moving body model M goes straight, the coordinate values of the points PL1 to PL8 and the points PR1 to PR8 are obtained by the equations 8 and 9.
なお、上述の第1補助モデルM1と同様に、座標系C3における点PL1〜PL8および点PR1〜点PR8のz軸座標値は、予めHDD50に記憶されている。この実施形態では、点PL1〜PL8および点PR1〜PR8のz軸座標値が上述の点EL(ER)のz軸座標値と同値に設定される。したがって、この実施形態では、第2補助モデルM2が移動体モデルMの下方から前方に配列される点群として表現される。 Note that, similarly to the first auxiliary model M1 described above, the z-axis coordinate values of the points PL1 to PL8 and the points PR1 to PR8 in the coordinate system C3 are stored in the HDD 50 in advance. In this embodiment, the z-axis coordinate values of the points PL1 to PL8 and the points PR1 to PR8 are set to the same value as the z-axis coordinate value of the point EL (ER) described above. Therefore, in this embodiment, the second auxiliary model M2 is expressed as a point group arranged forward from below the moving body model M.
このようにして得られる点PL1〜PL8と点PR1〜PR8とを上述と同様に数4を用いて座標変換することによって、グローバル座標系GCに第2補助モデルM2が生成される。 The second auxiliary model M2 is generated in the global coordinate system GC by performing coordinate conversion of the points PL1 to PL8 and the points PR1 to PR8 obtained in this manner using the equation 4 in the same manner as described above.
図3に戻って、ステップS11の後、操作者へ提供する表示画像の中で移動体モデルMの大きさが略一定となるように、CPU44によって仮想視点Vからの画角が算出される(ステップS13)。ここでは、モニタ36の画面(たとえば、縦768ピクセル×横1024ピクセルの画面)に、所定サイズ(たとえば縦480ピクセル×横800ピクセル)の表示画像が表示されるものとする。表示画像のサイズ(たとえば縦480ピクセル×横800ピクセル)に関する情報、および表示画像の縦横比(たとえば縦:横=3:5)に関する情報は、予めHDD50に記憶されている。 Returning to FIG. 3, after step S <b> 11, the angle of view from the virtual viewpoint V is calculated by the CPU 44 so that the size of the moving body model M is substantially constant in the display image provided to the operator ( Step S13). Here, it is assumed that a display image of a predetermined size (for example, vertical 480 pixels × horizontal 800 pixels) is displayed on the screen of the monitor 36 (for example, vertical 768 pixels × horizontal 1024 pixels). Information regarding the size of the display image (for example, vertical 480 pixels × horizontal 800 pixels) and information regarding the aspect ratio of the display image (for example, vertical: horizontal = 3: 5) are stored in the HDD 50 in advance.
図12は、グローバル座標系GCに生成された移動体モデルMを横方向から見た状態を示す図解図である。
図12において、dは仮想視点Vから移動体12の基準点B(現在の移動体12の位置)までの距離、βは仮想視点Vからの縦画角、hは移動体モデルMの高さ、Hは仮想視点Vから縦画角βで切り出したときの距離dの位置(基準点Bを通る縦面)での切り出し幅である。距離dは仮想視点Vの位置と基準点Bの位置とから得ることができる。
FIG. 12 is an illustrative view showing a state in which the moving object model M generated in the global coordinate system GC is viewed from the lateral direction.
In FIG. 12, d is the distance from the virtual viewpoint V to the reference point B of the moving body 12 (current position of the moving body 12), β is the vertical angle of view from the virtual viewpoint V, and h is the height of the moving body model M. , H is the cutout width at the position of the distance d (vertical plane passing through the reference point B) when cut out from the virtual viewpoint V at the vertical angle of view β. The distance d can be obtained from the position of the virtual viewpoint V and the position of the reference point B.
図12を参照して、縦画角βの算出方法について説明する。
モニタ36に移動体モデルMが表示されるとき、移動体モデルMの縦サイズを表示画像の縦サイズの一定値k(0<k<1)倍の大きさにするには、k=h/Hの関係が成立すればよい。たとえばk=h/H=0.33である。
また、図12より、d*tan(β/2)=H/2が成立する。
これらの2つの数式より、縦画角βは数10によって求められる。
A method for calculating the vertical angle of view β will be described with reference to FIG.
When the moving body model M is displayed on the monitor 36, in order to make the vertical size of the moving body model M a constant value k (0 <k <1) times the vertical size of the display image, k = h / It is sufficient if the relationship of H is established. For example, k = h / H = 0.33.
From FIG. 12, d * tan (β / 2) = H / 2 is established.
From these two mathematical expressions, the vertical angle of view β is obtained by Equation 10.
図12(b)には、図12(a)の状態から移動体12が移動し、仮想視点Vから移動体12の基準点Bまでの距離dが長くなった状態が示されている。H,hおよびkは固定値であるが、dが大きくなるので、数5より、図12(b)の縦画角βは図12(a)のそれより小さくなる。 FIG. 12B shows a state where the moving body 12 has moved from the state of FIG. 12A and the distance d from the virtual viewpoint V to the reference point B of the moving body 12 has become longer. Although H, h, and k are fixed values, since d increases, the vertical angle of view β in FIG. 12B is smaller than that in FIG.
このように縦画角βを設定することによって、表示画像中での移動体モデルMの縦サイズを略一定に保つことができ、縦画角βを固定する場合とは異なり、移動体モデルMが表示画像中ひいてはモニタ36の画面内で小さくなっていくことを防止できる。 By setting the vertical angle of view β in this way, the vertical size of the moving object model M in the display image can be kept substantially constant. Unlike the case where the vertical angle of view β is fixed, the moving object model M Can be prevented from becoming smaller in the display image and thus in the screen of the monitor 36.
図12(b)に示す仮想視点Vと基準点Bとを結ぶ線が、3次元直交座標系C2のx−y平面上にある場合、仮想視点Vからの横画角γは図13に示すようになる。
図13は、グローバル座標系GCに生成された3次元環境画像Kと移動体モデルMと第1補助モデルM1と第2補助モデルM2とを3次元直交座標系C2のz軸方向のプラス側(図7参照)から見た状態を示す図解図である。図13では、3次元環境画像Kは、仮想視点Vにて撮影された画角180°の半球状の広角画像である。
When the line connecting the virtual viewpoint V and the reference point B shown in FIG. 12B is on the xy plane of the three-dimensional orthogonal coordinate system C2, the horizontal angle of view γ from the virtual viewpoint V is shown in FIG. It becomes like this.
FIG. 13 shows the three-dimensional environment image K generated in the global coordinate system GC, the moving body model M, the first auxiliary model M1, and the second auxiliary model M2 on the plus side in the z-axis direction of the three-dimensional orthogonal coordinate system C2 ( It is an illustration figure which shows the state seen from FIG. In FIG. 13, the three-dimensional environment image K is a hemispherical wide-angle image with an angle of view of 180 ° taken at the virtual viewpoint V.
縦画角βと同様に、横画角γは、表示画像の横サイズに対する移動体モデルMの横サイズの倍率を設定しておくことによって算出できる。また、横画角γは、算出した縦画角βと表示画像の予め設定された縦横比(たとえば縦:横=3:5)とに基づいて算出することもできる。 Similar to the vertical angle of view β, the horizontal angle of view γ can be calculated by setting the magnification of the horizontal size of the moving object model M with respect to the horizontal size of the display image. The horizontal angle of view γ can also be calculated based on the calculated vertical angle of view β and a preset aspect ratio of the display image (for example, vertical: horizontal = 3: 5).
なお、投影画像の切り出し範囲は、縦画角βに基づく切り出し縦幅および横画角γに基づく切り出し横幅のいずれか一方と、表示画像の縦横比(たとえば縦:横=3:5)とに基づいて決定できる。この実施形態では、縦画角βと表示画像の縦横比とに基づいて投影画像の切り出し範囲が決定される。このことから、ステップS13では横画角γを求める処理を行っていない。 Note that the cut-out range of the projected image is set to one of a cut-out vertical width based on the vertical angle of view β and a cut-out horizontal width based on the horizontal view angle γ, and an aspect ratio of the display image (for example, vertical: horizontal = 3: 5). Can be determined based on. In this embodiment, the cutout range of the projection image is determined based on the vertical angle of view β and the aspect ratio of the display image. Therefore, in step S13, the process for obtaining the horizontal angle of view γ is not performed.
図3に戻って、その後、CPU44によって合成画像が生成される(ステップS15)。
合成画像の生成には、一般的に使用できる3次元グラフィックライブラリを用いることができる。この実施形態では、OpenGL(登録商標)とそれをマイクロソフト社のWindows(登録商標)で使用するためにフリーで提供されているgluLookAt関数およびgluPerspective関数を使用した。gluLookAt関数への引数として、グローバル座標系GCでの仮想視点Vの位置と切り出し中心点Qの位置とを与え、gluPerspective関数への引数として縦画角βと表示画像の縦横比(たとえば縦:横=3:5)とを与える。これによって、グローバル座標系GCに生成された3次元環境画像Kと移動体モデルMと第1補助モデルM1と第2補助モデルM2とを含んで透視投影した合成画像を描画できる。
Returning to FIG. 3, a synthesized image is then generated by the CPU 44 (step S <b> 15).
A generally used three-dimensional graphic library can be used for generating a composite image. In this embodiment, OpenGL (registered trademark) and the gluLookAt function and gluPerspective function provided free of charge for use in Microsoft Windows (registered trademark) were used. As the argument to the gluLookAt function, the position of the virtual viewpoint V and the position of the cut-out center point Q in the global coordinate system GC are given, and as the argument to the gluPerspective function, the vertical angle of view β and the aspect ratio of the display image (for example, vertical: horizontal) = 3: 5). As a result, it is possible to draw a composite image obtained by perspective projection including the three-dimensional environment image K generated in the global coordinate system GC, the moving body model M, the first auxiliary model M1, and the second auxiliary model M2.
このようにして得られた合成画像は、3次元環境画像Kと移動体モデルMと第1補助モデルM1と第2補助モデルM2とを仮想視点Vから切り出し中心点Qに向かって透視投影して得られる投影画像を、得られた縦画角βと表示画像の縦横比とに基づく切り出し範囲に応じて切り出したものになる。 The composite image obtained in this way is obtained by perspectively projecting the three-dimensional environment image K, the moving body model M, the first auxiliary model M1, and the second auxiliary model M2 from the virtual viewpoint V toward the center point Q. The obtained projection image is cut out according to the cut-out range based on the obtained vertical angle of view β and the aspect ratio of the display image.
その後、合成画像をモニタ36に所定サイズ(たとえば縦480ピクセル×横800ピクセル)で表示できるように、CPU44によって合成画像の大きさが変換され表示画像が得られる(ステップS17)。そして、得られた表示画像(大きさが変換された合成画像)がモニタ36に表示され、操作者に提示される(ステップS19)。 Thereafter, the CPU 44 converts the size of the synthesized image so that the synthesized image can be displayed on the monitor 36 at a predetermined size (for example, vertical 480 pixels × horizontal 800 pixels), and a display image is obtained (step S17). Then, the obtained display image (composite image whose size has been converted) is displayed on the monitor 36 and presented to the operator (step S19).
図13に示すように移動体モデルMが仮想視点Vを背にして前進する場合には、仮想視点Vと切り出し中心点Qとを結ぶ線上に基準点Bが位置する。したがって、この場合には、基準点Bを中心位置とした表示画像が提示されることになる。 As shown in FIG. 13, when the moving body model M moves forward with the virtual viewpoint V behind, the reference point B is located on the line connecting the virtual viewpoint V and the cut-out center point Q. Therefore, in this case, a display image with the reference point B as the center position is presented.
しかし、移動体モデルMが曲がるときには、切り出し中心点Qと移動体モデルMとの位置関係から、移動体モデルMの進行方向側の画像がより広く操作者に提示される。たとえば移動体モデルMが左に曲がるときには、図14に示すように仮想視点Vと切り出し中心点Qとを結ぶ線を中心線として切り出し範囲が決定される。 However, when the mobile body model M is bent, the image on the traveling direction side of the mobile body model M is presented to the operator more widely from the positional relationship between the cut-out center point Q and the mobile body model M. For example, when the moving body model M turns to the left, the cutout range is determined with the line connecting the virtual viewpoint V and the cutout center point Q as the centerline as shown in FIG.
したがって、仮想視点Vに対する移動体モデルMの向きが変化していくと、それに伴って移動体モデルMの進行方向側の画像が徐々に広く提示されていき、操作者に違和感のない画像を提示でき、操作者は移動体12の進行方向の環境を認識しやすくなり移動体12をより容易に遠隔操作することができる。 Therefore, as the orientation of the moving body model M with respect to the virtual viewpoint V changes, the moving direction model image of the moving body model M is gradually presented along with it, and the operator feels comfortable. In addition, the operator can easily recognize the environment in the traveling direction of the moving body 12 and can remotely operate the moving body 12 more easily.
このようなステップS1からS19の処理が0.1秒程度のインターバルで繰り返される。 Such processing of steps S1 to S19 is repeated at intervals of about 0.1 seconds.
遠隔操作装置14ひいては遠隔操作システム10によれば、現在の操作部52aのハンドルの切り角(操舵ユニット52からの入力量)に応じて第1補助モデルM1および第2補助モデルM2を生成できる。そして、操作者は、表示画像(大きさが変換された合成画像)においてこのような第1補助モデルM1と第2補助モデルM2と道の路肩等との位置関係を確認することによって、移動体モデルMひいては移動体12を適切な向きで移動させるために必要なハンドルの切り角を容易に把握できる。したがって、不慣れな操作者でも、移動体12を容易に遠隔操作することができ、移動体12を迅速に目的地に移動させることができる。 According to the remote operation device 14 and the remote operation system 10, it is possible to generate the first auxiliary model M1 and the second auxiliary model M2 according to the current turning angle of the steering wheel of the operation unit 52a (input amount from the steering unit 52). Then, the operator confirms the positional relationship between the first auxiliary model M1 and the second auxiliary model M2 and the shoulder of the road in the display image (the composite image whose size has been converted), thereby moving the moving body. It is possible to easily grasp the turning angle of the handle necessary for moving the model M and the moving body 12 in an appropriate direction. Therefore, even an inexperienced operator can easily remotely control the moving body 12 and can quickly move the moving body 12 to the destination.
操作者は、表示画像において道の路肩等と第1補助モデルM1との交わり方を確認することによってハンドルの適切な切り角を容易に把握できる。第1補助モデルM1は、図15に示すように道が急激に曲がっている場合(道の曲率が大きい場合)に特に有効である。すなわち移動体12の進行方向が右または左に90°以上変更されるような場合に特に有効である。この場合は道の路肩に対して第1補助モデルM1が略直交するようにハンドルの切り角を調節することによって、不慣れな操作者でも移動体12を容易に安定して遠隔操作することができる。 The operator can easily grasp the appropriate turning angle of the handle by confirming how the road shoulder and the first auxiliary model M1 intersect in the display image. The first auxiliary model M1 is particularly effective when the road is bent sharply (when the road curvature is large) as shown in FIG. That is, it is particularly effective when the traveling direction of the moving body 12 is changed by 90 ° or more to the right or left. In this case, by adjusting the turning angle of the handle so that the first auxiliary model M1 is substantially orthogonal to the road shoulder, even an unfamiliar operator can easily and stably operate the moving body 12 remotely. .
また、操作者は、表示画像において道の路肩等と第2補助モデルM2との隙間を確認することによってハンドルの適切な切り角を容易に把握できる。第2補助モデルM2は、図16に示すように道が緩やかに曲がっている場合(道の曲率が小さい場合)に特に有効である。この場合は道の路肩(図16では路面上のサイドライン)と第2補助モデルM2との間隔が一定になるようにハンドルの切り角を調節することによって、不慣れな操作者でも移動体12を容易に安定して遠隔操作することができる。 Further, the operator can easily grasp the appropriate turning angle of the handle by confirming the gap between the road shoulder and the second auxiliary model M2 in the display image. The second auxiliary model M2 is particularly effective when the road is gently bent as shown in FIG. 16 (when the road curvature is small). In this case, even the inexperienced operator can move the moving body 12 by adjusting the turning angle of the handle so that the distance between the road shoulder (the side line on the road surface in FIG. 16) and the second auxiliary model M2 is constant. Remote operation can be easily and stably performed.
なお、上述の実施形態では過去情報は距離に基づいて選択されたが、これに限定されない。過去情報は時刻に基づいて上記距離の場合と同様の方法で選択されてもよい。すなわち、過去情報に含まれる撮像時刻と現在時刻から5秒前の時刻とを比較し、当該5秒前の時刻に最も近い撮像時刻に撮影された過去情報を採用するようにしてもよい。また、通信機器32から遠隔操作装置14に送信されてきた過去情報の中から操作者が任意に選択するようにしてもよい。 In the above-described embodiment, the past information is selected based on the distance, but the present invention is not limited to this. The past information may be selected in the same manner as in the case of the distance based on the time. In other words, the imaging time included in the past information may be compared with the time 5 seconds before the current time, and the past information captured at the imaging time closest to the time 5 seconds before may be employed. In addition, the operator may arbitrarily select from past information transmitted from the communication device 32 to the remote operation device 14.
移動体12に関する情報とカメラ20に関する情報とは別々の検出手段によって検出されてもよい。移動体12および/またはカメラ20の位置、姿勢および方位は、既存の3次元自己位置推定手法によって求められてもよい。 Information regarding the moving body 12 and information regarding the camera 20 may be detected by separate detection means. The position, orientation, and orientation of the moving body 12 and / or the camera 20 may be obtained by an existing three-dimensional self-position estimation method.
上述の実施形態では、左折時における点ELを旋回中心点Rに設定しかつ右折時における点ERを旋回中心点Rに設定する場合について説明したが、これに限定されない。点ELおよび点ERの座標値は、点ELと点ERとを結ぶ直線が旋回中心点Rと中間点FMとを結ぶ直線に重なる限り任意に設定できる。すなわち第1補助モデルM1の長さは任意に設定できる。 In the above-described embodiment, the case where the point EL at the time of turning left is set as the turning center point R and the point ER at the time of turning right is set as the turning center point R has been described, but the present invention is not limited to this. The coordinate values of the point EL and the point ER can be arbitrarily set as long as the straight line connecting the point EL and the point ER overlaps the straight line connecting the turning center point R and the intermediate point FM. That is, the length of the first auxiliary model M1 can be set arbitrarily.
上述の実施形態では、第2補助モデルM2の点群GLと点群GRとをそれぞれ8個の点で構成する場合について説明したが、点群GLと点群GRとを構成する点の数は任意に設定できる。 In the above-described embodiment, the case where the point group GL and the point group GR of the second auxiliary model M2 are each configured by eight points has been described, but the number of points that configure the point group GL and the point group GR is as follows. Can be set arbitrarily.
座標系C3における点EL、点ER、点PL1〜PL8および点PR1〜PR8のz軸座標値は上述の実施形態に限定されず、任意に設定できる。たとえば、これらのz軸座標値を中心点FLおよび中心点FRのz軸座標値と同値に設定してもよい。つまり、第1補助モデルM1および第2補助モデルM2の高さを移動体モデルMの前輪の中心と同じ高さに設定してもよい。 The z-axis coordinate values of the point EL, the point ER, the points PL1 to PL8, and the points PR1 to PR8 in the coordinate system C3 are not limited to the above-described embodiment, and can be arbitrarily set. For example, these z-axis coordinate values may be set to the same value as the z-axis coordinate values of the center point FL and the center point FR. That is, the heights of the first auxiliary model M1 and the second auxiliary model M2 may be set to the same height as the center of the front wheel of the moving body model M.
上述の実施形態では、第1補助モデルM1および第2補助モデルM2をグローバル座標系CGに生成する場合について説明したが、これらのうちいずれか一方のみを生成するようにしてもよい。操舵ユニット52からの入力量に基づいて、直進時には第1補助モデルM1を生成し、右左折時には第2補助モデルM2を生成するといったように、生成する補助モデルを切り替えてもよい。 In the above-described embodiment, the case where the first auxiliary model M1 and the second auxiliary model M2 are generated in the global coordinate system CG has been described. However, only one of them may be generated. Based on the input amount from the steering unit 52, the auxiliary model to be generated may be switched such that the first auxiliary model M1 is generated when going straight and the second auxiliary model M2 is generated when turning right or left.
上述の実施形態では、撮像手段として画角180°のカメラを用いる場合について説明したが、撮像手段はこれに限定されない。撮像手段の画角は大きいほど好ましく、撮像手段としてたとえば画角270°程度のカメラを用いれば、右左折時に表示画像中に環境画像の画像端が表れることを防止できる。 In the above-described embodiment, the case where a camera having an angle of view of 180 ° is used as the imaging unit has been described, but the imaging unit is not limited to this. The larger the angle of view of the image pickup means, the better. For example, if a camera with an angle of view of about 270 ° is used as the image pickup means, it is possible to prevent the image edge of the environmental image from appearing in the display image when turning right or left.
この発明における移動体は、上述の4輪バギー車に限定されない。移動体の他の例としては、ショベルカー等の建設機械、および船舶等が挙げられる。 The moving body in the present invention is not limited to the above-described four-wheel buggy vehicle. Other examples of the moving body include construction machines such as excavators and ships.
10 遠隔操作システム
12 移動体
14 遠隔操作装置
16 マイクロコンピュータ
18 速度検出器
20 カメラ
20a レンズ
22 測位ユニット
24 姿勢センサ
26 方位センサ
28,50 ハードディスクドライブ
32,40 通信機器
34 コントロールユニット
36 モニタ
38 入力機器
44 CPU
46 ROM
48 RAM
52 操舵ユニット
52a 操作部
52b 舵角センサ
C1 2次元直交座標系
C2,C3 3次元直交座標系
GC グローバル座標系
I 環境画像
K 3次元環境画像
M 移動体モデル
M1 第1補助モデル
M2 第2補助モデル
V 仮想視点
DESCRIPTION OF SYMBOLS 10 Remote operation system 12 Mobile body 14 Remote operation device 16 Microcomputer 18 Speed detector 20 Camera 20a Lens 22 Positioning unit 24 Attitude sensor 26 Direction sensor 28, 50 Hard disk drive 32, 40 Communication equipment 34 Control unit 36 Monitor 38 Input equipment 44 CPU
46 ROM
48 RAM
52 Steering Unit 52a Operation Unit 52b Steering Angle Sensor C1 2D Cartesian Coordinate System C2, C3 3D Cartesian Coordinate System GC Global Coordinate System I Environment Image K 3D Environment Image M Mobile Model M1 First Auxiliary Model M2 Second Auxiliary Model V Virtual viewpoint
Claims (3)
前記移動体は、
前記移動体の周囲の環境画像を撮像する撮像手段と、
前記移動体および前記撮像手段に関する情報を検出する情報検出手段とを備え、
前記遠隔操作装置は、
操作者が前記移動体を操舵するための入力手段と、
前記情報検出手段の検出結果に基づいて仮想視点を決定する決定手段と、
前記撮像手段によって前記仮想視点から撮像された前記環境画像と当該環境画像の撮像時における前記情報検出手段の検出結果とに基づいて、前記環境画像を3次元で表す3次元環境画像と前記仮想視点とを仮想空間に生成する第1生成手段と、
前記仮想視点からの前記環境画像の撮像後における前記情報検出手段の検出結果と前記移動体を表す移動体モデルに関するデータとに基づいて、前記移動体モデルを前記仮想空間に生成する第2生成手段と、
前記仮想視点からの前記環境画像の撮像後における前記情報検出手段の検出結果と前記入力手段からの入力量とに基づいて、前記移動体の前進時、左折時および右折時における前記入力手段からの入力量の指標となる補助モデルを前記仮想空間に生成する第3生成手段と、
前記仮想視点から見た前記3次元環境画像と前記移動体モデルと前記補助モデルとを透視投影して合成画像を生成する第4生成手段と、
前記合成画像を表示する表示手段とを備え、
前記補助モデルは、前記移動体モデルの進行方向に直交しかつ前記移動体モデルの左側の前輪と右側の前輪との中間点を通りつつ前記移動体モデルに対して横方向に延びる第1補助モデルを含む、遠隔操作システム。 A remote operation system comprising a mobile body having a pair of left and right front wheels and a remote control device for remotely operating the mobile body,
The moving body is
Imaging means for capturing an environmental image around the moving body;
Comprising information detecting means for detecting information relating to the moving body and the imaging means,
The remote control device is:
An input means for an operator to steer the moving body;
Determining means for determining a virtual viewpoint based on a detection result of the information detecting means;
A three-dimensional environment image representing the environment image in three dimensions and the virtual viewpoint based on the environment image picked up from the virtual viewpoint by the image pickup means and the detection result of the information detection means at the time of picking up the environment image First generating means for generating a virtual space,
Second generation means for generating the moving body model in the virtual space based on a detection result of the information detection means after imaging the environmental image from the virtual viewpoint and data relating to the moving body model representing the moving body. When,
Based on the detection result of the information detection unit and the input amount from the input unit after capturing the environmental image from the virtual viewpoint, the input unit from the input unit during forward movement, left turn, and right turn Third generation means for generating in the virtual space an auxiliary model serving as an input quantity index;
Fourth generation means for generating a composite image by perspective-projecting the three-dimensional environment image viewed from the virtual viewpoint, the moving body model, and the auxiliary model;
E Bei and display means for displaying the composite image,
The auxiliary model is a first auxiliary model that is orthogonal to the traveling direction of the moving body model and extends laterally with respect to the moving body model while passing through an intermediate point between the left front wheel and the right front wheel of the moving body model. Including remote control system.
操作者が前記移動体を操舵するための入力手段と、
前記情報検出手段の検出結果に基づいて仮想視点を決定する決定手段と、
前記撮像手段によって前記仮想視点から撮像された前記環境画像と当該環境画像の撮像時における前記情報検出手段の検出結果とに基づいて、前記環境画像を3次元で表す3次元環境画像と前記仮想視点とを仮想空間に生成する第1生成手段と、
前記仮想視点からの前記環境画像の撮像後における前記情報検出手段の検出結果と前記移動体を表す移動体モデルに関するデータとに基づいて、前記移動体モデルを前記仮想空間に生成する第2生成手段と、
前記仮想視点からの前記環境画像の撮像後における前記情報検出手段の検出結果と前記入力手段からの入力量とに基づいて、前記移動体の前進時、左折時および右折時における前記入力手段からの入力量の指標となる補助モデルを前記仮想空間に生成する第3生成手段と、
前記仮想視点から見た前記3次元環境画像と前記移動体モデルと前記補助モデルとを透視投影して合成画像を生成する第4生成手段と、
前記合成画像を表示する表示手段とを備え、
前記補助モデルは、前記移動体モデルの進行方向に直交しかつ前記移動体モデルの左側の前輪と右側の前輪との中間点を通りつつ前記移動体モデルに対して横方向に延びる第1補助モデルを含む、遠隔操作装置。 A remote control device for remotely operating the moving body including an imaging unit that captures an environmental image around a moving body having a pair of left and right front wheels, and an information detection unit that detects information about the moving body and the imaging unit. There,
An input means for an operator to steer the moving body;
Determining means for determining a virtual viewpoint based on a detection result of the information detecting means;
A three-dimensional environment image representing the environment image in three dimensions and the virtual viewpoint based on the environment image picked up from the virtual viewpoint by the image pickup means and the detection result of the information detection means at the time of picking up the environment image First generating means for generating a virtual space,
Second generation means for generating the moving body model in the virtual space based on a detection result of the information detection means after imaging the environmental image from the virtual viewpoint and data relating to the moving body model representing the moving body. When,
Based on the detection result of the information detection unit and the input amount from the input unit after capturing the environmental image from the virtual viewpoint, the input unit from the input unit during forward movement, left turn, and right turn Third generation means for generating in the virtual space an auxiliary model serving as an input quantity index;
Fourth generation means for generating a composite image by perspective-projecting the three-dimensional environment image viewed from the virtual viewpoint, the moving body model, and the auxiliary model;
E Bei and display means for displaying the composite image,
The auxiliary model is a first auxiliary model that is orthogonal to the traveling direction of the moving body model and extends laterally with respect to the moving body model while passing through an intermediate point between the left front wheel and the right front wheel of the moving body model. Including remote control devices.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008304706A JP5174636B2 (en) | 2008-11-28 | 2008-11-28 | Remote control system and remote control device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008304706A JP5174636B2 (en) | 2008-11-28 | 2008-11-28 | Remote control system and remote control device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010128935A JP2010128935A (en) | 2010-06-10 |
JP5174636B2 true JP5174636B2 (en) | 2013-04-03 |
Family
ID=42329266
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008304706A Active JP5174636B2 (en) | 2008-11-28 | 2008-11-28 | Remote control system and remote control device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5174636B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5912451B2 (en) * | 2011-11-25 | 2016-04-27 | 学校法人千葉工業大学 | Remote control system for unmanned vehicle |
US10191493B2 (en) * | 2016-09-27 | 2019-01-29 | Baidu Usa Llc | Vehicle position point forwarding method for autonomous vehicles |
JP7386757B2 (en) * | 2020-06-02 | 2023-11-27 | ヤンマーホールディングス株式会社 | Autonomous driving system for work vehicles |
CN116635190A (en) * | 2020-12-24 | 2023-08-22 | 川崎重工业株式会社 | Robot system and robot working method |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004198211A (en) * | 2002-12-18 | 2004-07-15 | Aisin Seiki Co Ltd | Apparatus for monitoring vicinity of mobile object |
JP4348468B2 (en) * | 2004-01-21 | 2009-10-21 | 株式会社キャンパスクリエイト | Image generation method |
JP4967620B2 (en) * | 2006-11-28 | 2012-07-04 | アイシン・エィ・ダブリュ株式会社 | Parking support method and parking support device |
-
2008
- 2008-11-28 JP JP2008304706A patent/JP5174636B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2010128935A (en) | 2010-06-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11181637B2 (en) | Three dimensional target selection systems and methods | |
US7423553B2 (en) | Image display apparatus, image display method, measurement apparatus, measurement method, information processing method, information processing apparatus, and identification method | |
US8989876B2 (en) | Situational awareness for teleoperation of a remote vehicle | |
JP5473304B2 (en) | Remote location image display device, remote control device, vehicle control device, remote control system, remote control method, remote control program, vehicle control program, remote location image display method, remote location image display program | |
JP6840842B2 (en) | Video generator | |
US20240071017A1 (en) | Image generating device for generating three-dimensional display data | |
WO2020003631A1 (en) | Display control device and display control method | |
CN105981074A (en) | Camera calibration | |
JP5235127B2 (en) | Remote control system and remote control device | |
US20110288763A1 (en) | Method and apparatus for displaying three-dimensional route guidance | |
JP6875196B2 (en) | Mobile platforms, flying objects, support devices, mobile terminals, imaging assist methods, programs, and recording media | |
WO2020136929A1 (en) | Image processing device and image processing method | |
JP6856742B2 (en) | On-board unit, arithmetic unit and program | |
JP7021259B2 (en) | Video generator and video generation method | |
WO2020003633A1 (en) | Display control system, display control device, and display control method | |
JP5174636B2 (en) | Remote control system and remote control device | |
JP4947376B2 (en) | Three-dimensional data processing device, three-dimensional image generation device, navigation device, and three-dimensional data processing program | |
JP5669438B2 (en) | Object management image generation apparatus and object management image generation program | |
Burkard et al. | User-aided global registration method using geospatial 3D data for large-scale mobile outdoor augmented reality | |
WO2018140645A1 (en) | Three dimensional target selection systems and methods | |
JP7128497B2 (en) | Image display system for working machines | |
JP7349909B2 (en) | Position identification device, mobile object position identification system, and position identification method | |
JP2020095519A (en) | Shape estimation device, shape estimation method, program, and recording medium | |
WO2020235539A1 (en) | Method and device for specifying position and posture of object | |
JP6923144B2 (en) | Image display system for work machines |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110922 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120903 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120918 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121116 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20121225 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20121228 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5174636 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |