JP5575571B2 - Image generation system - Google Patents

Image generation system Download PDF

Info

Publication number
JP5575571B2
JP5575571B2 JP2010172991A JP2010172991A JP5575571B2 JP 5575571 B2 JP5575571 B2 JP 5575571B2 JP 2010172991 A JP2010172991 A JP 2010172991A JP 2010172991 A JP2010172991 A JP 2010172991A JP 5575571 B2 JP5575571 B2 JP 5575571B2
Authority
JP
Japan
Prior art keywords
image
camera
output image
coordinates
image generation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010172991A
Other languages
Japanese (ja)
Other versions
JP2012030948A (en
Inventor
雅人 因藤
芳永 清田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Heavy Industries Ltd
Original Assignee
Sumitomo Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Heavy Industries Ltd filed Critical Sumitomo Heavy Industries Ltd
Priority to JP2010172991A priority Critical patent/JP5575571B2/en
Publication of JP2012030948A publication Critical patent/JP2012030948A/en
Application granted granted Critical
Publication of JP5575571B2 publication Critical patent/JP5575571B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、クレーンに取り付けられた撮像装置が撮像した入力画像に基づいてクレーン操作者に提示するための出力画像を生成する画像生成システムに関する。   The present invention relates to an image generation system that generates an output image for presentation to a crane operator based on an input image captured by an imaging device attached to a crane.

従来、移動式クレーンの上部旋回体に取り付けられたカメラ1が撮像した画像を鳥瞰図画像に変換し、且つ、その移動式クレーンのブームの先端が旋回時に描く軌跡を地面に投影したものであるガイドラインをその鳥瞰図画像上に描画することによって、その旋回体の周辺状況の確認を容易にするカメラシステムが知られている(例えば、特許文献1参照。)。   Conventionally, a guideline for converting an image captured by the camera 1 attached to the upper swing body of a mobile crane into a bird's eye view image and projecting a trajectory drawn by the tip of the boom of the mobile crane when turning to the ground. A camera system that makes it easy to check the surrounding state of the swivel body by drawing the image on the bird's eye view image is known (for example, see Patent Document 1).

また、X軸方向に走行する天井クレーンのガーダに固定的に取り付けられたカメラが撮像する画像に含まれる、そのガーダのランウェイを支持する建屋の壁面に描かれた走行目印、そのガーダ上をY軸方向に横行するトロリの表面に描かれた横行目印、及び、そのトロリ上に設置された巻上装置から垂下されるフックの画像に基づいて、そのトロリの位置を表すXY座標値、及びそのフックの位置を表す上下座標値を算出し、その算出した値を操作者に提示するクレーン位置検出システムが知られている(例えば、特許文献2参照。)。   A traveling mark drawn on the wall surface of the building that supports the girder runway included in the image captured by the camera fixedly attached to the girder of the overhead crane traveling in the X-axis direction. XY coordinate value representing the position of the trolley based on the traverse mark drawn on the surface of the trolley that traverses in the axial direction, and the image of the hook hanging from the hoisting device installed on the trolley, and the A crane position detection system that calculates vertical coordinate values representing the position of a hook and presents the calculated value to an operator is known (see, for example, Patent Document 2).

また、ヤードクレーンのトロリに取り付けられた二次元レーザセンサの出力に基づいてハンドリングコンテナの底面エッジとスタックコンテナの天井面エッジとを検出しながらコンテナ同士の衝突を防止するコンテナ衝突防止装置が知られている(例えば、特許文献3参照。)。   Also known is a container collision prevention device for preventing collision between containers while detecting the bottom edge of the handling container and the ceiling edge of the stack container based on the output of a two-dimensional laser sensor attached to the trolley of the yard crane. (For example, refer to Patent Document 3).

特開2008−312004号公報JP 2008-312004 A 特許第4209532号明細書Japanese Patent No. 4209532 特許第4295591号明細書Japanese Patent No. 4295591

しかしながら、特許文献1に記載のカメラシステムは、旋回体と共に旋回するフックを水平方向から視認しながらクレーンを操作する操作者(地面に近いところに位置する操縦席にいる操作者)に対して、その旋回体が旋回した場合のそのフックの旋回軌道を事前に提示するためのものであって、フックを斜め上方から見下ろしながらクレーンを操作する操作者に対して有益な画像情報を提示することができない。   However, the camera system described in Patent Document 1 is for an operator who operates a crane while visually recognizing a hook that rotates with a revolving body from the horizontal direction (an operator in a cockpit located close to the ground). It is intended to present in advance the turning trajectory of the hook when the turning body turns, and can provide useful image information to an operator who operates the crane while looking down the hook obliquely from above. Can not.

また、特許文献2に記載のクレーン位置検出システムは、カメラが撮像した画像を表示することなく各種座標値を操作者に提示するのみであり、特許文献3に記載のコンテナ衝突防止装置もコンテナ周囲を撮像することなく二次元レーザセンサの出力に応じて巻上装置の回転速度を制御するのみであるため、そのフック又はスプレッダの周辺を斜め上方から見下ろしながらクレーンを操作する操作者に対して有益な画像情報を提示することができない。   Moreover, the crane position detection system described in Patent Document 2 only presents various coordinate values to the operator without displaying an image captured by the camera. Because it only controls the rotation speed of the hoisting device according to the output of the two-dimensional laser sensor without imaging the image, it is useful for the operator who operates the crane while looking down from the upper side of the hook or spreader. Image information cannot be presented.

上述の点に鑑み、本発明は、フックの周辺を鉛直斜め上方から見下ろしながらクレーンを操作する操作者に対して有益な画像情報を提示できる画像生成システムを提供することを目的とする。   In view of the above-described points, an object of the present invention is to provide an image generation system capable of presenting useful image information to an operator who operates a crane while looking down at the periphery of a hook from vertically above.

上述の目的を達成するために、本発明の実施例に係る画像生成システムは、つり具の周辺を鉛直斜め上方から見下ろしながら操作するクレーンの操作を支援する画像生成システムであって、巻上装置が巻き上げ或いは巻き下げる前記つり具を鉛直斜め上方から撮像する撮像装置と、前記撮像装置が撮像した画像に視点変換処理を施し、前記つり具を水平方向から見た出力画像を生成する出力画像生成手段とを備える。また、本発明の別の実施例に係る画像生成システムは、クレーンの操作を支援する画像生成システムであって、巻上装置が巻き上げ或いは巻き下げるつり具を鉛直斜め上方から撮像する撮像装置と、前記撮像装置が撮像した画像に視点変換処理を施し、前記つり具を水平方向から見た出力画像を生成する出力画像生成手段と、を備え、前記クレーンは、建屋の壁に沿って走行するガーダと、該ガーダ上を横行するトロリとを有する天井クレーンであり、前記撮像装置及び前記巻上装置は、前記トロリに取り付けられて該トロリと共に横行する。また、本発明のさらに別の実施例に係る画像生成システムは、クレーンの操作を支援する画像生成システムであって、巻上装置が巻き上げ或いは巻き下げるつり具を鉛直斜め上方から撮像する撮像装置と、前記撮像装置が撮像した画像に視点変換処理を施し、前記つり具を水平方向から見た出力画像を生成する出力画像生成手段と、を備え、前記クレーンは、建屋の壁に沿って走行するガーダと、該ガーダ上を横行するトロリとを有する天井クレーンであり、前記巻上装置は、前記トロリに取り付けられて該トロリと共に横行し、前記撮像装置は、前記トロリの横行方向に沿って前記ガーダに複数設置される。

In order to achieve the above-described object, an image generation system according to an embodiment of the present invention is an image generation system that supports the operation of a crane that operates while looking down the periphery of a suspension tool from a diagonally upward direction, and a hoisting device includes: an imaging device for imaging a rolled up or wound lowering the load-lifting vertically from obliquely above, performs viewpoint conversion processing on the image which the imaging device imaged, and an output image generation means for generating an output image viewed the sling from the horizontal direction with Ru. An image generation system according to another embodiment of the present invention is an image generation system that supports operation of a crane, and the image pickup device that picks up the lifting tool that the hoisting device winds up or lowers from vertically above, Output image generating means for performing viewpoint conversion processing on the image captured by the imaging device and generating an output image of the suspension viewed from the horizontal direction, and the crane includes a girder that travels along the wall of the building; An overhead crane having a trolley traversing on the girder, and the imaging device and the hoisting device are attached to the trolley and traverse along with the trolley. Further, an image generation system according to still another embodiment of the present invention is an image generation system that supports crane operation, and an imaging device that captures a lifting tool that is hoisted or lowered by a hoisting device from vertically above, Output image generating means for performing viewpoint conversion processing on the image captured by the imaging device and generating an output image of the suspension viewed from the horizontal direction, and the crane includes a girder that travels along the wall of the building; An overhead crane having a trolley traversing on the girder, wherein the hoisting device is attached to the trolley and traverses along with the trolley, and the imaging device travels along the traversing direction of the trolley. Several are installed.

上述の手段により、本発明は、フックの周辺を見下ろしながらクレーンを操作する操作者に対して有益な画像情報を提示できる画像生成システムを提供することができる。   With the above-described means, the present invention can provide an image generation system that can present useful image information to an operator who operates the crane while looking down around the hook.

本発明の第一実施例に係る画像生成システムの構成例を概略的に示すブロック図である。1 is a block diagram schematically showing a configuration example of an image generation system according to a first embodiment of the present invention. 図1の画像生成システムが搭載される天井クレーンの構成例を示す図である。It is a figure which shows the structural example of the overhead crane by which the image generation system of FIG. 1 is mounted. 入力画像が投影される空間モデルの一例を示す図(その1)である。It is FIG. (1) which shows an example of the space model on which an input image is projected. 図3の空間モデルと天井クレーンとの間の位置関係を示す図である。It is a figure which shows the positional relationship between the space model of FIG. 3, and an overhead crane. カメラが撮像した入力画像の一例である。It is an example of the input image which the camera imaged. 入力画像平面上の座標と空間モデル上の座標との対応付けを説明するための図である。It is a figure for demonstrating matching with the coordinate on an input image plane, and the coordinate on a space model. 入力画像平面上の座標と空間モデル上の座標と出力画像平面上の座標との対応付けを説明するための図である。It is a figure for demonstrating matching with the coordinate on an input image plane, the coordinate on a space model, and the coordinate on an output image plane. 図3の空間モデルと図5の入力画像とに基づく出力画像の一例(その1)である。6 is an example (part 1) of an output image based on the space model of FIG. 3 and the input image of FIG. 図3の空間モデルと図5の入力画像とに基づく出力画像の一例(その2)である。6 is an example (part 2) of an output image based on the spatial model of FIG. 3 and the input image of FIG. 入力画像が投影される空間モデルの一例を示す図(その2)である。It is FIG. (2) which shows an example of the space model on which an input image is projected. 図10の空間モデルと図5の入力画像とに基づく出力画像の一例である。It is an example of the output image based on the space model of FIG. 10, and the input image of FIG. 出力画像生成処理の流れを示すフローチャートである。It is a flowchart which shows the flow of an output image generation process. 本発明の第二実施例に係る画像生成システムの構成例を概略的に示すブロック図である。It is a block diagram which shows roughly the structural example of the image generation system which concerns on 2nd Example of this invention. 本発明の第三実施例に係る画像生成システムの構成例を概略的に示すブロック図である。It is a block diagram which shows roughly the structural example of the image generation system which concerns on 3rd Example of this invention. 視点変換により仮想的な見下ろし画像を生成する処理を説明するための図(その1)である。FIG. 10 is a diagram (No. 1) for describing a process of generating a virtual looking-down image by viewpoint conversion; 視点変換により仮想的な見下ろし画像を生成する処理を説明するための図(その2)である。FIG. 10 is a diagram (No. 2) for describing a process of generating a virtual looking-down image by viewpoint conversion; 仮想的な見下ろし画像と仮想的な水平画像とを生成する処理を説明するための図(その1)である。FIG. 10 is a diagram (No. 1) for describing a process of generating a virtual looking-down image and a virtual horizontal image; 仮想的な見下ろし画像と仮想的な水平画像とを生成する処理を説明するための図(その2)である。FIG. 10 is a diagram (No. 2) for describing a process of generating a virtual looking-down image and a virtual horizontal image. 本発明の第四実施例に係る画像生成システムの構成例を概略的に示すブロック図である。It is a block diagram which shows roughly the structural example of the image generation system which concerns on 4th Example of this invention. 図19の画像生成システムが搭載される天井クレーンの構成例を示す図である。It is a figure which shows the structural example of the overhead crane by which the image generation system of FIG. 19 is mounted. 目盛り描画手段による目盛り描画処理を説明するための図(その1)である。It is FIG. (1) for demonstrating the scale drawing process by a scale drawing means. 目盛り描画手段による目盛り描画処理を説明するための図(その2)である。It is FIG. (2) for demonstrating the scale drawing process by a scale drawing means. 目盛り描画手段による目盛り描画処理を説明するための図(その3)である。It is FIG. (3) for demonstrating the scale drawing process by a scale drawing means. 特徴の異なる複数の画像を含む出力画像の例を示す図(その1)である。It is FIG. (1) which shows the example of the output image containing the several image from which a characteristic differs. 特徴の異なる複数の画像を含む出力画像の例を示す図(その2)である。It is FIG. (2) which shows the example of the output image containing the several image from which a characteristic differs.

以下、図面を参照しつつ、本発明を実施するための最良の形態の説明を行う。   Hereinafter, the best mode for carrying out the present invention will be described with reference to the drawings.

図1は、本発明の第一実施例に係る画像生成システム100の構成例を概略的に示すブロック図である。   FIG. 1 is a block diagram schematically showing a configuration example of an image generation system 100 according to the first embodiment of the present invention.

画像生成システム100は、例えば、天井クレーン60に搭載されたカメラ2が撮像した入力画像に基づいて出力画像を生成しその出力画像を運転者に提示するシステムであって、制御部1、カメラ2、入力部3、記憶部4、及び表示部5で構成される。   The image generation system 100 is, for example, a system that generates an output image based on an input image captured by the camera 2 mounted on the overhead crane 60 and presents the output image to the driver. , An input unit 3, a storage unit 4, and a display unit 5.

図2は、画像生成システム100が搭載される天井クレーン60の構成例を示す図であり、図2(A)が天井クレーン60の上面図を示し、図2(B)が図2(A)のIIB−IIB方向から見た天井クレーン60の正面図を示し、図2(C)が図2(B)のIIC−IIC方向から見た天井クレーン60の側面図を示す。なお、図2(A)〜(C)における破線で表される領域は、カメラ2の撮像範囲である。   FIG. 2 is a diagram illustrating a configuration example of the overhead crane 60 on which the image generation system 100 is mounted. FIG. 2A illustrates a top view of the overhead crane 60, and FIG. 2B illustrates FIG. Fig. 2C is a front view of the overhead crane 60 viewed from the IIB-IIB direction, and Fig. 2C is a side view of the overhead crane 60 viewed from the IIC-IIC direction of Fig. 2B. 2A to 2C is an imaging range of the camera 2.

天井クレーン60は、建屋の左壁WL及び右壁WRのそれぞれに設置されたランウェイ61L、61R上を車輪62L(前車輪62LF及び後車輪62LBを含む。)、62R(図示しない前車輪62RF及び図示しない後車輪62RBを含む。)を用いてX軸方向に走行するガーダ63を有する。   The overhead crane 60 has wheels 62L (including a front wheel 62LF and a rear wheel 62LB) and 62R (a front wheel 62RF (not shown) and an illustration shown) on runways 61L and 61R installed on the left wall WL and the right wall WR of the building, respectively. The rear wheel 62RB is included) and the girder 63 travels in the X-axis direction.

また、天井クレーン60は、ガーダ63上に設置されたランウェイ64F、64B上を車輪65L(前車輪65LF及び図示しない後車輪65LBを含む。)、65R(前車輪65RF及び後車輪65RBを含む。)を用いてY軸方向に横行するトロリ66を有する。   The overhead crane 60 has wheels 65L (including front wheels 65LF and rear wheels 65LB not shown) and 65R (including front wheels 65RF and rear wheels 65RB) on runways 64F and 64B installed on the girder 63. And a trolley 66 that traverses in the Y-axis direction.

また、天井クレーン60は、トロリ66に取り付けられる巻上装置67を有し、巻上装置67は、モータ(図示せず。)を用いてドラム(図示せず。)にワイヤロープ68を巻き上げ或いは巻き下げてフック69をZ軸方向に上下させる。   The overhead crane 60 has a hoisting device 67 attached to a trolley 66, and the hoisting device 67 winds a wire rope 68 around a drum (not shown) using a motor (not shown). The hook 69 is lowered and moved up and down in the Z-axis direction.

なお、本実施例において、天井クレーン60は、クラブトロリ式天井クレーンであるが、ロープトロリ式天井クレーンであってもよく、ホイスト式天井クレーンであってもよい。   In this embodiment, the overhead crane 60 is a club trolley type overhead crane, but may be a rope trolley type overhead crane or a hoist type overhead crane.

次に、画像生成システム100の各構成要素について説明する。   Next, each component of the image generation system 100 will be described.

制御部1は、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)、NVRAM(Non-Volatile Random Access Memory)等を備えたコンピュータであって、例えば、後述する座標対応付け手段10及び出力画像生成手段11のそれぞれに対応するプログラムをROMやNVRAMに記憶し、一時記憶領域としてRAMを利用しながら各手段に対応する処理をCPUに実行させる。   The control unit 1 is a computer including a CPU (Central Processing Unit), a RAM (Random Access Memory), a ROM (Read Only Memory), an NVRAM (Non-Volatile Random Access Memory), etc. A program corresponding to each of the attaching means 10 and the output image generating means 11 is stored in the ROM or NVRAM, and the CPU executes processing corresponding to each means while using the RAM as a temporary storage area.

カメラ2は、フック69の周辺を映し出す入力画像を取得するための装置であり、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の撮像素子を備え、トロリ66から鉛直下方に延びた後X軸方向に延びるブラケットBRの先端に取り付けられてトロリ66と共にY軸方向に横行し、且つ、ガーダ63と共にX軸方向に走行する(図2(A)及び図2(C)参照。)。   The camera 2 is a device for acquiring an input image that reflects the periphery of the hook 69. For example, the camera 2 includes an image sensor such as a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS), and is vertically downward from the trolley 66. After extending, it is attached to the tip of the bracket BR extending in the X-axis direction, traverses in the Y-axis direction together with the trolley 66, and travels in the X-axis direction together with the girder 63 (see FIGS. 2A and 2C). .)

カメラ2は、鉛直斜め上方からフック69を撮像するように配置され、フック69が凹部(周りを他の物体や壁で取り囲まれた空間である。)に進入した場合であってもフック69を確実に撮像するのに十分な俯角をその光軸が形成するよう配置される。   The camera 2 is arranged so as to pick up an image of the hook 69 from above in the vertical direction, and even when the hook 69 enters a recess (a space surrounded by other objects or walls), the hook 69 is moved. The optical axis is arranged so as to form a sufficient depression angle for reliable imaging.

カメラ2は、その光軸が形成する俯角が大きい程、より狭い凹部にフック69が進入した場合にも、周りの物体に視界が遮られることなく、フック69を撮像することができ、一方、その光軸が形成する俯角が小さい程、後述の視点変換画像(あたかもフック69を水平方向から見たような画像である。)をより鮮明に提示することができる(カメラ2の光軸と仮想カメラの光軸との間の角度差が小さくなるためである。)。   As the depression angle formed by the optical axis of the camera 2 increases, even when the hook 69 enters a narrower recess, the hook 69 can capture an image without being blocked by the surrounding objects, The smaller the depression angle formed by the optical axis, the clearer the later-described viewpoint conversion image (as if the hook 69 was viewed from the horizontal direction) can be presented more clearly (the optical axis of the camera 2 and the virtual axis). This is because the angle difference from the optical axis of the camera is reduced.)

なお、カメラ2は、操作者がその光軸の方向を動的に調整できるものであってもよく、公知の技術によりフック69の位置を検出しながら、その光軸の方向がフック69に向かうようにフック69を自動的に追尾するものであってもよい。   The camera 2 may be one in which the operator can dynamically adjust the direction of the optical axis, and the direction of the optical axis is directed toward the hook 69 while detecting the position of the hook 69 by a known technique. As described above, the hook 69 may be automatically tracked.

なお、カメラ2は、ガーダ63の側面に取り付けられていてもよく(この場合、トロリ66と共に横行することはない。)、広い範囲を撮像できるよう広角レンズ又は魚眼レンズが装着されていてもよい。   In addition, the camera 2 may be attached to the side surface of the girder 63 (in this case, it does not traverse with the trolley 66), and a wide-angle lens or a fish-eye lens may be attached so that a wide range can be imaged.

また、カメラ2は、制御部1からの制御信号に応じて入力画像を取得し、取得した入力画像を制御部1に対して出力する。なお、カメラ2は、魚眼レンズ又は広角レンズを用いて入力画像を取得した場合には、それらレンズを用いることによって生じる見掛け上の歪曲やアオリを補正した補正済みの入力画像を制御部1に対して出力するが、その見掛け上の歪曲やアオリを補正していない入力画像をそのまま制御部1に対して出力してもよい。その場合には、制御部1がその見掛け上の歪曲やアオリを補正することとなる。   In addition, the camera 2 acquires an input image according to a control signal from the control unit 1 and outputs the acquired input image to the control unit 1. In addition, when the camera 2 acquires an input image using a fisheye lens or a wide-angle lens, the corrected input image obtained by correcting apparent distortion and tilt caused by using these lenses is transmitted to the control unit 1. Although it is output, an input image in which the apparent distortion or tilt is not corrected may be output to the control unit 1 as it is. In that case, the control unit 1 corrects the apparent distortion and tilt.

入力部3は、操作者が画像生成システム100に対して各種情報を入力できるようにするための装置であり、例えば、タッチパネル、ボタンスイッチ、ポインティングデバイス、キーボード等である。   The input unit 3 is a device that allows an operator to input various types of information to the image generation system 100. Examples of the input unit 3 include a touch panel, a button switch, a pointing device, and a keyboard.

記憶部4は、各種情報を記憶するための装置であり、例えば、ハードディスク、光学ディスク、又は半導体メモリ等である。   The storage unit 4 is a device for storing various types of information, and is, for example, a hard disk, an optical disk, or a semiconductor memory.

表示部5は、画像情報を表示するための装置であり、例えば、操作室70内に設置された液晶ディスプレイ又はプロジェクタ等であって、制御部1が出力する各種画像を表示する。   The display unit 5 is a device for displaying image information. For example, the display unit 5 is a liquid crystal display or a projector installed in the operation room 70 and displays various images output from the control unit 1.

また、画像生成システム100は、入力画像に基づいて処理対象画像を生成し、その処理対象画像に画像変換処理を施すことによってフック69と吊り荷との間の位置関係や距離感を直感的に把握できるようにする出力画像を生成した上で、その出力画像を運転者に提示する。   Further, the image generation system 100 generates a processing target image based on the input image, and performs an image conversion process on the processing target image, thereby intuitively determining the positional relationship and the sense of distance between the hook 69 and the suspended load. An output image that can be grasped is generated, and the output image is presented to the driver.

「処理対象画像」は、入力画像に基づいて生成される、画像変換処理(例えば、スケール変換、アフィン変換、歪曲変換、視点変換処理等である。)の対象となる画像であり、例えば、フック69を上方から撮像するカメラによる入力画像を空間モデルに投影することによって得られる、画像変換処理に適した画像である。なお、処理対象画像は、画像変換処理を施すことなくそのまま出力画像として用いられてもよい。   The “processing target image” is an image that is generated based on the input image and is a target of image conversion processing (for example, scale conversion, affine conversion, distortion conversion, viewpoint conversion processing, and the like). This is an image suitable for image conversion processing, obtained by projecting an input image from a camera that captures image 69 from above onto a spatial model. The processing target image may be used as an output image as it is without performing an image conversion process.

「空間モデル」は、一又は複数の平面若しくは曲面で構成される、入力画像の投影対象である。   The “spatial model” is an input image projection target composed of one or a plurality of planes or curved surfaces.

図3は、入力画像が投影される空間モデルMDの一例を示す図であり、空間モデルMDは、直交する二つの平面(水平面R1及び垂直面R2)によって形成される。なお、説明の便宜上、水平面R1は、縦方向及び横方向に等間隔に描画される複数の直線で形成されるグリッドパターンを有し、垂直面R2は、縦方向及び横方向に等間隔に配置されるドット(円)で形成されるドットパターンを有するものとするが、これらのパターンが画像上に実際に表示されることはない。   FIG. 3 is a diagram illustrating an example of a spatial model MD onto which an input image is projected. The spatial model MD is formed by two orthogonal planes (horizontal plane R1 and vertical plane R2). For convenience of explanation, the horizontal plane R1 has a grid pattern formed by a plurality of straight lines drawn at equal intervals in the vertical and horizontal directions, and the vertical plane R2 is arranged at equal intervals in the vertical and horizontal directions. It is assumed that a dot pattern formed by dots (circles) to be formed is included, but these patterns are not actually displayed on the image.

図4は、空間モデルMDと天井クレーン60との間の位置関係を示す図であり、図4(A)は、図2(A)の上面図で示される天井クレーン60の鉛直下方にある床面FFに空間モデルMDの水平面R1を配置した状態を示し、図4(B)は、図2(B)の正面図で示される天井クレーン60のガーダ63の中央線を含む鉛直面VSに空間モデルMDの垂直面R2を配置した状態を示す。   FIG. 4 is a diagram showing a positional relationship between the space model MD and the overhead crane 60, and FIG. 4 (A) is a floor vertically below the overhead crane 60 shown in the top view of FIG. 2 (A). FIG. 4B shows a state in which the horizontal plane R1 of the space model MD is arranged on the plane FF, and FIG. The state which has arrange | positioned the vertical surface R2 of model MD is shown.

図5は、カメラ2が撮像した入力画像の一例を示す図であり、ワイヤロープ68で吊されたフック69を斜め上から見下ろした状態を示す。なお、空間モデルMDの水平面R1及び垂直面R2は説明の便宜上表示されるものであり、実際の画像には存在しないものである。   FIG. 5 is a diagram illustrating an example of an input image captured by the camera 2, and shows a state where the hook 69 suspended by the wire rope 68 is looked down obliquely from above. The horizontal plane R1 and the vertical plane R2 of the space model MD are displayed for convenience of explanation, and do not exist in the actual image.

また、図5は、床面FF(水平面R1)に近づく程、垂直面R2のドットパターンが小さく且つその間隔が狭くなることを示す。   Moreover, FIG. 5 shows that the dot pattern of the vertical surface R2 is smaller and the interval is narrower as it approaches the floor surface FF (horizontal plane R1).

次に、制御部1が有する各種手段について説明する。   Next, various units included in the control unit 1 will be described.

座標対応付け手段10は、カメラ2が撮像した入力画像が位置する入力画像平面上の座標と、空間モデルMD上の座標とを対応付けるための手段であり、例えば、予め設定された、或いは、入力部3を介して入力される、カメラ2の光学中心、焦点距離、CCDサイズ、光軸方向ベクトル、カメラ水平方向ベクトル、射影方式等のカメラ2に関する各種パラメータと、予め決定された、入力画像平面及び空間モデルMDの間の位置関係とに基づいて、入力画像平面上の座標と空間モデルMD上の座標とを対応付け、それらの対応関係を記憶部4の入力画像・空間モデル対応マップ40に記憶する。   The coordinate associating means 10 is a means for associating coordinates on the input image plane where the input image captured by the camera 2 is located with coordinates on the space model MD, for example, preset or input Various parameters related to the camera 2 such as the optical center, focal length, CCD size, optical axis direction vector, camera horizontal direction vector, projection method, etc., which are input via the unit 3, and a predetermined input image plane And the coordinates on the input image plane and the coordinates on the space model MD are associated with each other based on the positional relationship between the space model MD and the corresponding relationship in the input image / space model correspondence map 40 of the storage unit 4. Remember.

出力画像生成手段11は、予め設定された、或いは、入力部3を介して入力される、仮想カメラの光学中心、焦点距離、CCDサイズ、光軸方向ベクトル、カメラ水平方向ベクトル、射影方式等の各種パラメータに基づいて、空間モデルMD上の座標と出力画像が位置する出力画像平面上の座標とを対応付け、その対応関係を記憶部4の空間モデル・出力画像対応マップ41に記憶し、且つ、入力画像・空間モデル対応マップ40を参照しながら、出力画像における各画素の値(例えば、輝度値、色相値、彩度値等である。)と入力画像における各画素の値とを関連付けて出力画像を生成する。   The output image generation means 11 is preset or input via the input unit 3, such as the optical center of the virtual camera, the focal length, the CCD size, the optical axis direction vector, the camera horizontal direction vector, and the projection method. Based on the various parameters, the coordinates on the spatial model MD are associated with the coordinates on the output image plane where the output image is located, the correspondence is stored in the spatial model / output image correspondence map 41 of the storage unit 4, and Referring to the input image / space model correspondence map 40, the value of each pixel in the output image (for example, luminance value, hue value, saturation value, etc.) and the value of each pixel in the input image are associated with each other. Generate an output image.

次に、座標対応付け手段10及び出力画像生成手段11による具体的な処理の一例について説明する。   Next, an example of specific processing by the coordinate association unit 10 and the output image generation unit 11 will be described.

座標対応付け手段10は、例えば、ハミルトンの四元数を用いて、入力画像平面上の座標と空間モデル上の座標とを対応付けることができる。   The coordinate association means 10 can associate the coordinates on the input image plane with the coordinates on the space model using, for example, a Hamilton quaternion.

図6は、入力画像平面上の座標と空間モデル上の座標との対応付けを説明するための図であり、カメラ2の入力画像平面R4は、カメラ2の光学中心Cを原点とするUVW直交座標系における一平面として表され、空間モデルMDは、XYZ直交座標系における立体面として表されるものとする。   FIG. 6 is a diagram for explaining the correspondence between the coordinates on the input image plane and the coordinates on the space model. The input image plane R4 of the camera 2 is UVW orthogonal with the optical center C of the camera 2 as the origin. It is expressed as one plane in the coordinate system, and the space model MD is expressed as a three-dimensional surface in the XYZ orthogonal coordinate system.

最初に、座標対応付け手段10は、空間モデルMD上の座標(XYZ座標系上の座標)を入力画像平面R4上の座標(UVW座標系上の座標)に変換するため、XYZ座標系の原点Oを光学中心C(UVW座標系の原点)に並行移動させた上で、X軸をU軸に、Y軸をV軸に、Z軸を−W軸(符号「−」は方向が逆であることを意味する。これは、UVW座標系がカメラ前方を+W方向とし、XYZ座標系が鉛直下方を−Z方向としていることに起因する。)にそれぞれ一致させるようXYZ座標系を回転させる。   First, the coordinate association unit 10 converts the coordinates on the space model MD (coordinates on the XYZ coordinate system) to the coordinates on the input image plane R4 (coordinates on the UVW coordinate system), and therefore the origin of the XYZ coordinate system. O is moved parallel to the optical center C (the origin of the UVW coordinate system), then the X axis is the U axis, the Y axis is the V axis, and the Z axis is the -W axis (the sign "-" is in the opposite direction). This means that the XYZ coordinate system is rotated so that the UVW coordinate system coincides with the + W direction in front of the camera and the XYZ coordinate system in the −Z direction vertically below.

なお、カメラ2が複数存在する場合、カメラ2のそれぞれが個別のUVW座標系を有することとなるので、座標対応付け手段10は、複数のUVW座標系のそれぞれに対して、XYZ座標系を並行移動させ且つ回転させることとなる。   When there are a plurality of cameras 2, each of the cameras 2 has an individual UVW coordinate system. Therefore, the coordinate association unit 10 uses an XYZ coordinate system in parallel with each of the plurality of UVW coordinate systems. It will be moved and rotated.

上述の変換は、カメラ2の光学中心CがXYZ座標系の原点となるようにXYZ座標系を並行移動させた後に、Z軸が−W軸に一致するよう回転させ、更に、X軸がU軸に一致するよう回転させることによって実現されるので、座標対応付け手段10は、この変換をハミルトンの四元数で記述することにより、それら二回の回転を一回の回転演算に纏めることができる。   In the above conversion, the XYZ coordinate system is translated so that the optical center C of the camera 2 is the origin of the XYZ coordinate system, and then the Z axis is rotated so as to coincide with the −W axis. Since it is realized by rotating to coincide with the axis, the coordinate matching means 10 can combine these two rotations into one rotation calculation by describing this transformation in Hamilton's quaternion. it can.

ところで、あるベクトルAを別のベクトルBに一致させるための回転は、ベクトルAとベクトルBとが張る面の法線を軸としてベクトルAとベクトルBとが形成する角度だけ回転させる処理に相当し、その角度をθとすると、ベクトルAとベクトルBとの内積から、角度θは、   By the way, the rotation for making one vector A coincide with another vector B corresponds to the process of rotating the vector A and the vector B by the angle formed by using the normal line of the surface extending between the vector A and the vector B as an axis. If the angle is θ, from the inner product of the vector A and the vector B, the angle θ is

Figure 0005575571
で表されることとなる。
Figure 0005575571
It will be expressed as

また、ベクトルAとベクトルBとが張る面の法線の単位ベクトルNは、ベクトルAとベクトルBとの外積から   Further, the unit vector N of the normal line between the vector A and the vector B is obtained from the outer product of the vector A and the vector B.

Figure 0005575571
で表されることとなる。
Figure 0005575571
It will be expressed as

なお、四元数は、i、j、kをそれぞれ虚数単位とした場合、   Note that the quaternion has i, j, and k as imaginary units,

Figure 0005575571
を満たす超複素数であり、本実施例において、四元数Qは、実成分をt、純虚成分をa、b、cとして、
Figure 0005575571
In this embodiment, the quaternion Q is represented by t as a real component and a, b, and c as pure imaginary components.

Figure 0005575571
で表されるものとし、四元数Qの共役四元数は、
Figure 0005575571
The conjugate quaternion of the quaternion Q is

Figure 0005575571
で表されるものとする。
Figure 0005575571
It shall be represented by

四元数Qは、実成分tを0(ゼロ)としながら、純虚成分a、b、cで三次元ベクトル(a,b,c)を表現することができ、また、t、a、b、cの各成分により任意のベクトルを軸とした回転動作を表現することもできる。   The quaternion Q can represent a three-dimensional vector (a, b, c) with pure imaginary components a, b, c while setting the real component t to 0 (zero), and t, a, b , C can also be used to express a rotational motion with an arbitrary vector as an axis.

更に、四元数Qは、連続する複数回の回転動作を統合して一回の回転動作として表現することができ、例えば、任意の点S(sx,sy,sz)を、任意の単位ベクトルC(l,m,n)を軸としながら角度θだけ回転させたときの点D(ex,ey,ez)を以下のように表現することができる。   Further, the quaternion Q can be expressed as a single rotation operation by integrating a plurality of continuous rotation operations. For example, an arbitrary point S (sx, sy, sz) can be expressed as an arbitrary unit vector. A point D (ex, ey, ez) when rotated by an angle θ with C (l, m, n) as an axis can be expressed as follows.

Figure 0005575571
ここで、本実施例において、Z軸を−W軸に一致させる回転を表す四元数をQzとすると、XYZ座標系におけるX軸上の点Xは、点X'に移動させられるので、点X'は、
Figure 0005575571
Here, in this embodiment, if the quaternion representing the rotation that makes the Z axis coincide with the −W axis is Qz, the point X on the X axis in the XYZ coordinate system is moved to the point X ′. X '

Figure 0005575571
で表されることとなる。
Figure 0005575571
It will be expressed as

また、本実施例において、X軸上にある点X'と原点とを結ぶ線をU軸に一致させる回転を表す四元数をQxとすると、「Z軸を−W軸に一致させ、更に、X軸をU軸に一致させる回転」を表す四元数Rは、   In this embodiment, if the quaternion representing the rotation that matches the line connecting the point X ′ on the X axis and the origin to the U axis is Qx, “the Z axis matches the −W axis, , A quaternion R representing "rotation to make the X axis coincide with the U axis"

Figure 0005575571
で表されることとなる。
Figure 0005575571
It will be expressed as

以上により、空間モデル(XYZ座標系)上の任意の座標Pを入力画像平面(UVW座標系)上の座標で表現したときの座標P'は、   As described above, the coordinate P ′ when an arbitrary coordinate P on the space model (XYZ coordinate system) is expressed by a coordinate on the input image plane (UVW coordinate system) is

Figure 0005575571
で表されることとなり、座標対応付け手段10は、以後、この演算を実行するだけで空間モデル(XYZ座標系)上の座標を入力画像平面(UVW座標系)上の座標に変換することができる。なお、カメラ2の光軸が固定である場合には四元数R及びその共役四元数Rは不変であるが、カメラ2の光軸が調整される場合には、四元数R及びその共役四元数Rは再計算される必要がある点に留意すべきである。
四元数Rがカメラ2のそれぞれで不変であることから、
空間モデル(XYZ座標系)上の座標を入力画像平面(UVW座標系)上の座標に変換した後、座標対応付け手段10は、カメラ2の光学中心C(UVW座標系上の座標)と空間モデル上の任意の座標PをUVW座標系で表した座標P'とを結ぶ線分CP'と、カメラ2の光軸Gとが形成する入射角αを算出する。
Figure 0005575571
Then, the coordinate matching means 10 can convert the coordinates on the space model (XYZ coordinate system) into the coordinates on the input image plane (UVW coordinate system) by simply executing this calculation. it can. When the optical axis of the camera 2 is fixed, the quaternion R and its conjugate quaternion R * are unchanged, but when the optical axis of the camera 2 is adjusted, the quaternion R and Note that the conjugated quaternion R * needs to be recalculated.
Since the quaternion R is invariant for each camera 2,
After the coordinates on the space model (XYZ coordinate system) are converted to the coordinates on the input image plane (UVW coordinate system), the coordinate association means 10 determines the optical center C (coordinates on the UVW coordinate system) of the camera 2 and the space. An incident angle α formed by a line segment CP ′ connecting an arbitrary coordinate P on the model with a coordinate P ′ represented in the UVW coordinate system and the optical axis G of the camera 2 is calculated.

また、座標対応付け手段10は、カメラ2の入力画像平面R4(例えば、CCD面)に平行で且つ座標P'を含む平面Hにおける、平面Hと光軸Gとの交点Eと座標P'とを結ぶ線分EP'と、平面HにおけるU'軸とが形成する偏角φ、及び線分EP'の長さを算出する。   In addition, the coordinate association unit 10 includes an intersection E between the plane H and the optical axis G, and a coordinate P ′ in a plane H that is parallel to the input image plane R4 (for example, CCD plane) of the camera 2 and includes the coordinate P ′. Are calculated, and the deviation angle φ formed by the line segment EP ′ connecting the two and the U ′ axis in the plane H, and the length of the line segment EP ′.

カメラの光学系は、通常、像高さhが入射角α及び焦点距離fの関数となっているので、座標対応付け手段10は、通常射影(h=ftanα)、正射影(h=fsinα)、立体射影(h=2ftan(α/2))、等立体角射影(h=2fsin(α/2))、等距離射影(h=fα)等の適切な射影方式を選択して像高さhを算出する。   In the optical system of the camera, the image height h is usually a function of the incident angle α and the focal length f. Therefore, the coordinate matching means 10 performs normal projection (h = ftanα) and orthographic projection (h = fsinα). Image height by selecting an appropriate projection method such as stereo projection (h = 2 ftan (α / 2)), equisolid angle projection (h = 2 fsin (α / 2)), equidistant projection (h = fα), etc. Calculate h.

その後、座標対応付け手段10は、算出した像高さhを偏角φによりUV座標系上のU成分及びV成分に分解し、入力画像平面R4の一画素当たりの画素サイズに相当する数値で除算することにより、空間モデルMD上の座標P(P')と入力画像平面R4上の座標とを対応付けることができる。   Thereafter, the coordinate matching means 10 decomposes the calculated image height h into U and V components on the UV coordinate system by the declination φ, and is a numerical value corresponding to the pixel size per pixel of the input image plane R4. By dividing, the coordinates P (P ′) on the space model MD can be associated with the coordinates on the input image plane R4.

なお、入力画像平面R4のU軸方向における一画素当たりの画素サイズをaUとし、入力画像平面R4のV軸方向における一画素当たりの画素サイズをaVとすると、空間モデルMD上の座標P(P')に対応する入力画像平面R4上の座標(u,v)は、   If the pixel size per pixel in the U-axis direction of the input image plane R4 is aU and the pixel size per pixel in the V-axis direction of the input image plane R4 is aV, the coordinates P (P The coordinates (u, v) on the input image plane R4 corresponding to ') are

Figure 0005575571
Figure 0005575571

Figure 0005575571
で表されることとなる。
Figure 0005575571
It will be expressed as

このようにして、座標対応付け手段10は、空間モデルMD上の座標と、カメラ毎に存在する一又は複数の入力画像平面R4上の座標とを対応付け、空間モデルMD上の座標、カメラ識別子、及び入力画像平面R4上の座標を関連付けて入力画像・空間モデル対応マップ40に記憶する。   In this way, the coordinate association unit 10 associates the coordinates on the space model MD with the coordinates on one or a plurality of input image planes R4 existing for each camera, and coordinates on the space model MD, the camera identifier. And the coordinates on the input image plane R4 are stored in the input image / space model correspondence map 40 in association with each other.

また、座標対応付け手段10は、四元数を用いて座標の変換を演算するので、オイラー角を用いて座標の変換を演算する場合と異なり、ジンバルロックを発生させることがないという利点を有する。しかしながら、座標対応付け手段10は、四元数を用いて座標の変換を演算するものに限定されることはなく、オイラー角を用いて座標の変換を演算するようにしてもよい。   Further, since the coordinate association unit 10 calculates the coordinate conversion using the quaternion, unlike the case where the coordinate conversion is calculated using the Euler angle, there is an advantage that no gimbal lock is generated. . However, the coordinate association unit 10 is not limited to the one that calculates the coordinate conversion using the quaternion, and may perform the coordinate conversion using the Euler angle.

なお、空間モデルMD上の一座標を複数の入力画像平面上の座標へ対応付けることが可能な場合、座標対応付け手段10は、空間モデルMD上の座標P(P')を、その入射角αが最も小さいカメラに関する入力画像平面上の座標に対応付けるようにしてもよく、操作者が選択した入力画像平面上の座標に対応付けるようにしてもよく、或いは、画像生成システム100が自動的に選択した入力画像平面上の座標に対応付けるようにしてもよい。   When one coordinate on the space model MD can be associated with a plurality of coordinates on the input image plane, the coordinate association means 10 determines the coordinates P (P ′) on the space model MD as the incident angle α. May be associated with coordinates on the input image plane relating to the camera with the smallest image size, may be associated with coordinates on the input image plane selected by the operator, or automatically selected by the image generation system 100 You may make it match with the coordinate on an input image plane.

次に、図7を参照しながら、座標対応付け手段10による座標間の対応付けについて説明する。   Next, the association between coordinates by the coordinate association means 10 will be described with reference to FIG.

図7(A)は、一例として通常射影(h=ftanα)を採用するカメラ2の入力画像平面R4上の座標と空間モデルMD上の座標との間の対応関係を示す図であり、座標対応付け手段10は、カメラ2の入力画像平面R4上の座標とその座標に対応する空間モデルMD上の座標とを結ぶ線分のそれぞれがカメラ2の光学中心Cを通過するようにして両座標を対応付ける。   FIG. 7A is a diagram showing a correspondence relationship between coordinates on the input image plane R4 of the camera 2 that adopts normal projection (h = ftan α) as an example and coordinates on the space model MD. The attaching means 10 sets both coordinates so that each line segment connecting the coordinates on the input image plane R4 of the camera 2 and the coordinates on the spatial model MD corresponding to the coordinates passes through the optical center C of the camera 2. Associate.

図7(A)の例では、座標対応付け手段10は、カメラ2の入力画像平面R4上の座標K1を空間モデルMDの水平面R1上の座標L1に対応付け、カメラ2の入力画像平面R4上の座標K2を空間モデルMDの垂直面R2上の座標L2に対応付ける。このとき、線分K1−L1及び線分K2−L2は共にカメラ2の光学中心Cを通過する。   In the example of FIG. 7A, the coordinate association means 10 associates the coordinate K1 on the input image plane R4 of the camera 2 with the coordinate L1 on the horizontal plane R1 of the spatial model MD, and on the input image plane R4 of the camera 2 Is associated with the coordinate L2 on the vertical plane R2 of the space model MD. At this time, both the line segment K1-L1 and the line segment K2-L2 pass through the optical center C of the camera 2.

なお、カメラ2が通常射影以外の射影方式(例えば、正射影、立体射影、等立体角射影、等距離射影等である。)を採用する場合、座標対応付け手段10は、それぞれの射影方式に応じて、カメラ2の入力画像平面R4上の座標K1、K2を空間モデルMD上の座標L1、L2に対応付けるようにする。   In addition, when the camera 2 employs a projection method other than normal projection (for example, orthographic projection, stereoscopic projection, equisolid angle projection, equidistant projection, etc.), the coordinate association unit 10 uses each projection method. Accordingly, the coordinates K1 and K2 on the input image plane R4 of the camera 2 are associated with the coordinates L1 and L2 on the space model MD.

具体的には、座標対応付け手段10は、所定の関数(例えば、正射影(h=fsinα)、立体射影(h=2ftan(α/2))、等立体角射影(h=2fsin(α/2))、等距離射影(h=fα)等である。)に基づいて、入力画像平面上の座標と空間モデルMD上の座標とを対応付ける。この場合、線分K1−L1及び線分K2−L2がカメラ2の光学中心Cを通過することはない。   Specifically, the coordinate association unit 10 is configured to use a predetermined function (for example, orthographic projection (h = fsin α), stereoscopic projection (h = 2 ftan (α / 2)), or equal solid angle projection (h = 2 fsin (α / 2)), equidistant projection (h = fα), etc.), the coordinates on the input image plane are associated with the coordinates on the space model MD. In this case, the line segment K1-L1 and the line segment K2-L2 do not pass through the optical center C of the camera 2.

図7(B)は、空間モデルMD上の座標と、一例として通常射影(h=ftanα)を採用する仮想カメラ2Vの出力画像平面R5上の座標との間の対応関係を示す図であり、出力画像生成手段11は、仮想カメラ2Vの出力画像平面R5上の座標とその座標に対応する空間モデルMD上の座標とを結ぶ線分のそれぞれが仮想カメラ2Vの光学中心CVを通過するようにして、両座標を対応付ける。   FIG. 7B is a diagram illustrating a correspondence relationship between the coordinates on the space model MD and the coordinates on the output image plane R5 of the virtual camera 2V that adopts the normal projection (h = ftan α) as an example. The output image generation means 11 causes each line segment connecting the coordinates on the output image plane R5 of the virtual camera 2V and the coordinates on the spatial model MD corresponding to the coordinates to pass through the optical center CV of the virtual camera 2V. And associate both coordinates.

図7(B)の例では、出力画像生成手段11は、仮想カメラ2Vの出力画像平面R5上の座標N1を空間モデルMDの水平面R1上の座標L1に対応付け、仮想カメラ2Vの出力画像平面R5上の座標N2を空間モデルMDの垂直面R2上の座標L2に対応付ける。このとき、線分L1−N1及び線分L2−N2は共に仮想カメラ2Vの光学中心CVを通過する。   In the example of FIG. 7B, the output image generation means 11 associates the coordinates N1 on the output image plane R5 of the virtual camera 2V with the coordinates L1 on the horizontal plane R1 of the space model MD, and outputs the output image plane of the virtual camera 2V. The coordinate N2 on R5 is associated with the coordinate L2 on the vertical plane R2 of the space model MD. At this time, both the line segment L1-N1 and the line segment L2-N2 pass through the optical center CV of the virtual camera 2V.

なお、仮想カメラ2Vが通常射影以外の射影方式(例えば、正射影、立体射影、等立体角射影、等距離射影等である。)を採用する場合、出力画像生成手段11は、それぞれの射影方式に応じて、仮想カメラ2Vの出力画像平面R5上の座標N1、N2を空間モデルMD上の座標L1、L2に対応付けるようにする。   Note that when the virtual camera 2V employs a projection method other than normal projection (for example, orthographic projection, stereoscopic projection, equisolid angle projection, equidistant projection, etc.), the output image generation unit 11 uses each projection method. Accordingly, the coordinates N1 and N2 on the output image plane R5 of the virtual camera 2V are associated with the coordinates L1 and L2 on the space model MD.

具体的には、出力画像生成手段11は、所定の関数(例えば、正射影(h=fsinα)、立体射影(h=2ftan(α/2))、等立体角射影(h=2fsin(α/2))、等距離射影(h=fα)等である。)に基づいて、出力画像平面R5上の座標と空間モデルMD上の座標とを対応付ける。この場合、線分L1−N1及び線分L2−N2が仮想カメラ2Vの光学中心CVを通過することはない。   Specifically, the output image generation means 11 is a predetermined function (for example, orthographic projection (h = fsin α), stereoscopic projection (h = 2 ftan (α / 2)), equal solid angle projection (h = 2 fsin (α / 2)), equidistant projection (h = fα), etc.), the coordinates on the output image plane R5 and the coordinates on the space model MD are associated with each other. In this case, the line segment L1-N1 and the line segment L2-N2 do not pass through the optical center CV of the virtual camera 2V.

このようにして、出力画像生成手段11は、出力画像平面R5上の座標と、空間モデルMD上の座標とを対応付け、出力画像平面R5上の座標及び空間モデルMD上の座標を関連付けて空間モデル・出力画像対応マップ41に記憶し、座標対応付け手段10が記憶した入力画像・空間モデル対応マップ40を参照しながら、出力画像における各画素の値と入力画像における各画素の値とを関連付けて出力画像を生成する。   In this way, the output image generation unit 11 associates the coordinates on the output image plane R5 with the coordinates on the space model MD, and associates the coordinates on the output image plane R5 with the coordinates on the space model MD to create a space. The value of each pixel in the output image is associated with the value of each pixel in the input image while referring to the input image / space model correspondence map 40 stored in the model / output image correspondence map 41 and stored in the coordinate association means 10. To generate an output image.

図8は、図5の入力画像に基づく出力画像の一例を示す図であり、ワイヤロープ68で吊されたフック69を水平方向から見た状態を示す。なお、空間モデルMDの水平面R1及び垂直面R2は、図5の場合と同様に説明の便宜上表示されるものであり、実際の画像には存在しないものである。   FIG. 8 is a view showing an example of an output image based on the input image of FIG. Note that the horizontal plane R1 and the vertical plane R2 of the spatial model MD are displayed for convenience of explanation as in the case of FIG. 5 and do not exist in the actual image.

また、図8は、図5の場合と異なり、床面FF(水平面R1)からの距離に関係なく、垂直面R2のドットパターンの大きさ及びその間隔がほぼ均一であることを示す。   Further, FIG. 8 shows that the size of the dot pattern on the vertical surface R2 and the interval thereof are almost uniform regardless of the distance from the floor surface FF (horizontal surface R1), unlike the case of FIG.

図9は、図5の入力画像に基づく出力画像の別の一例を示す図であり、フック69の位置を示す目盛りが重畳表示された点で、図8の出力画像と異なる。なお、図9において、鉛直面VS(垂直面R2)のドットパターンは、明瞭化のために省略されている。   FIG. 9 is a diagram illustrating another example of the output image based on the input image of FIG. 5, and is different from the output image of FIG. 8 in that a scale indicating the position of the hook 69 is superimposed and displayed. In FIG. 9, the dot pattern on the vertical surface VS (vertical surface R2) is omitted for the sake of clarity.

距離を示す目盛りは、例えば、視点変換による拡大率が大きくなる領域程に(この場合、床面FFに近い程に)太くなるように表示されるが、視点変換による拡大率に関係なく均一の太さで表示されてもよい。また、フック69のレベルを分かり易く示すための矢印画像ARが表示されてもよい。   For example, the scale indicating the distance is displayed so as to be thicker in a region where the enlargement ratio by the viewpoint conversion becomes larger (in this case, closer to the floor surface FF), but is uniform regardless of the enlargement ratio by the viewpoint conversion. You may display by thickness. In addition, an arrow image AR for showing the level of the hook 69 in an easy-to-understand manner may be displayed.

なお、目盛りの値は、好適には、巻上装置67からの距離(巻上装置67のレベルでメモリの値がゼロとなるもの)を表すが、フック69の先端からの距離を表すもの(フック69のレベルで目盛りの値がゼロとなるもの)であってもよく、床面FFからの距離を表すもの(床面FFのレベルで目盛りの値がゼロとなるもの)であってもよい。   The scale value preferably represents the distance from the hoisting device 67 (the memory value is zero at the level of the hoisting device 67), but represents the distance from the tip of the hook 69 ( The value of the scale at the level of the hook 69 may be zero) or the distance from the floor FF (the value of the scale at the level of the floor FF becomes zero). .

図10は、入力画像が投影される空間モデルの別の一例を示す図であり、空間モデルMDAは、図3の空間モデルMDと同様、直交する二つの平面(水平面R1A及び垂直面R2A)によって形成される。水平面R1Aがグリッドパターンを有し、垂直面R2Aがドットパターンを有する点、及び、それらのパターンが画像上に実際に表示されることはない点についても図3の場合と同様である。   FIG. 10 is a diagram illustrating another example of a spatial model onto which an input image is projected. The spatial model MDA is similar to the spatial model MD in FIG. 3 by two orthogonal planes (horizontal plane R1A and vertical plane R2A). It is formed. The horizontal plane R1A has a grid pattern, the vertical plane R2A has a dot pattern, and the point that these patterns are not actually displayed on the image is the same as in the case of FIG.

図11は、図10の空間モデルMDAと図5の入力画像とに基づく出力画像の一例を示す図であり、ワイヤロープ68で吊されたフック69を水平方向から見た画像と床面FFを鉛直上方から見た画像とを組み合わせて斜めから見た状態を示す。   FIG. 11 is a diagram illustrating an example of an output image based on the spatial model MDA of FIG. 10 and the input image of FIG. 5. An image of the hook 69 suspended by the wire rope 68 viewed from the horizontal direction and the floor FF are shown. The state seen from diagonally combining with the image seen from the perpendicular upper part is shown.

なお、図11で示される出力画像は、図9で示される出力画像と同様、フック69の位置を示す目盛りが重畳表示されてもよい。   Note that the output image shown in FIG. 11 may be displayed with a scale indicating the position of the hook 69 superimposed, similarly to the output image shown in FIG.

このように、画像生成システム100は、フック69をあたかも水平方向から撮像したような画像(以下、「仮想的な水平画像」とする。)を操作者に提示することができ、フック69と床面FFとの間の距離をその操作者に容易に認識させることができ、その操作者によるフック69の上げ下げの操作を支援することができる。   As described above, the image generation system 100 can present an image as if the hook 69 was captured from the horizontal direction (hereinafter referred to as “virtual horizontal image”) to the operator. The operator can easily recognize the distance to the surface FF, and can assist the operator in raising and lowering the hook 69.

また、画像生成システム100は、入力画像のうちフック69が存在する部分を仮想的な水平画像として操作者に提示し、一方で、入力画像の他の部分については、その部分をあたかも鉛直上方から撮像したような画像として操作者に提示することができ、フック69と床面FF上に存在する物体との間の関係をその操作者に容易に認識させることができ、その操作者によるフック69の上げ下げの操作を支援することができる。   In addition, the image generation system 100 presents a portion of the input image where the hook 69 exists to the operator as a virtual horizontal image, while the other portion of the input image is displayed as if it is vertically above. The captured image can be presented to the operator, and the operator can easily recognize the relationship between the hook 69 and the object existing on the floor surface FF. The operation of raising and lowering can be supported.

次に、図12を参照しながら、画像生成システム100が入力画像を用いて出力画像を生成する処理(以下、「出力画像生成処理」とする。)について説明する。なお、図12は、出力画像生成処理の流れを示すフローチャートであり、カメラ2(入力画像平面R4)、空間モデルMD(水平面R1及び垂直面R2)、並びに仮想カメラ2V(出力画像平面R5)の配置は予め決定されているものとする。   Next, a process in which the image generation system 100 generates an output image using an input image (hereinafter referred to as “output image generation process”) will be described with reference to FIG. FIG. 12 is a flowchart showing the flow of the output image generation processing. The camera 2 (input image plane R4), the space model MD (horizontal plane R1 and vertical plane R2), and the virtual camera 2V (output image plane R5). The arrangement is determined in advance.

最初に、制御部1は、出力画像生成手段11により、出力画像平面R5上の座標と空間モデルMD上の座標とを対応付ける(ステップS1)。   First, the control unit 1 causes the output image generation unit 11 to associate the coordinates on the output image plane R5 with the coordinates on the space model MD (step S1).

具体的には、出力画像生成手段11は、仮想カメラ2Vを用いて出力画像を生成する場合には、採用した射影方式に応じて出力画像平面R5上の座標から空間モデルMD上の座標を算出し、その対応関係を空間モデル・出力画像対応マップ41に記憶する。   Specifically, when generating the output image using the virtual camera 2V, the output image generation unit 11 calculates the coordinates on the space model MD from the coordinates on the output image plane R5 according to the adopted projection method. The correspondence relationship is stored in the space model / output image correspondence map 41.

より具体的には、出力画像生成手段11は、通常射影(h=ftanα)を採用する仮想カメラ2Vを用いて出力画像を生成する場合には、その仮想カメラ2Vの光学中心CVの座標を取得した上で、出力画像平面R5上の一座標から延びる線分であり、光学中心CVを通過する線分が空間モデルMDと交差する点を算出し、算出した点に対応する空間モデルMD上の座標を、出力画像平面R5上のその一座標に対応する空間モデルMD上の一座標として導き出し、その対応関係を空間モデル・出力画像対応マップ41に記憶する。   More specifically, the output image generation means 11 acquires the coordinates of the optical center CV of the virtual camera 2V when generating an output image using the virtual camera 2V that employs normal projection (h = ftanα). Then, a point that is a line segment extending from one coordinate on the output image plane R5 and that intersects the space model MD is calculated on the space model MD corresponding to the calculated point. The coordinates are derived as one coordinate on the space model MD corresponding to the one coordinate on the output image plane R5, and the corresponding relationship is stored in the space model / output image correspondence map 41.

その後、制御部1は、出力画像平面R5上の全ての座標の値を空間モデル上の座標の値に対応付けたか否かを判定し(ステップS2)、未だ全ての座標の値を対応付けていないと判定した場合には(ステップS2のNO)、ステップS1の処理を繰り返すようにする。   Thereafter, the control unit 1 determines whether or not all the coordinate values on the output image plane R5 are associated with the coordinate values on the space model (step S2), and still associates all the coordinate values. If it is determined that there is not (NO in step S2), the process in step S1 is repeated.

一方、制御部1は、全ての座標の値を対応付けたと判定した場合には(ステップS2のYES)、座標対応付け手段10により、上述の処理によって導き出された空間モデルMD上の座標のそれぞれと入力画像平面R4上の座標とを対応付ける(ステップS3)。   On the other hand, when the control unit 1 determines that all the coordinate values are associated (YES in step S2), each of the coordinates on the space model MD derived by the coordinate association unit 10 by the above-described processing. Are associated with coordinates on the input image plane R4 (step S3).

具体的には、座標対応付け手段10は、通常射影(h=ftanα)を採用するカメラ2の光学中心Cの座標を取得し、上述の処理によって導き出された
空間モデルMD上の座標のそれぞれから延びる線分であり、光学中心Cを通過する線分が入力画像平面R4と交差する点を算出し、算出した点に対応する入力画像平面R4上の座標を、その空間モデルMD上の一座標に対応する入力画像平面R4上の一座標として導き出し、その対応関係を入力画像・空間モデル対応マップ40に記憶する。
Specifically, the coordinate matching means 10 acquires the coordinates of the optical center C of the camera 2 that employs normal projection (h = ftanα), and from each of the coordinates on the spatial model MD derived by the above-described processing. A line segment extending through the optical center C intersects with the input image plane R4, and a coordinate on the input image plane R4 corresponding to the calculated point is set as one coordinate on the space model MD. Is derived as one coordinate on the input image plane R4, and the corresponding relationship is stored in the input image / space model correspondence map 40.

その後、制御部1は、上述の処理によって導き出された空間モデルMD上の全ての座標を入力画像平面R4上の座標に対応付けたか否かを判定し(ステップS4)、未だ全ての座標を対応付けていないと判定した場合には(ステップS4のNO)、ステップS3の処理を繰り返すようにする。   Thereafter, the control unit 1 determines whether or not all the coordinates on the spatial model MD derived by the above-described process are associated with the coordinates on the input image plane R4 (step S4), and all the coordinates are still associated. If it is determined that it is not attached (NO in step S4), the process in step S3 is repeated.

一方、制御部1は、全ての座標を対応付けたと判定した場合には(ステップS4のYES)、出力画像生成手段11により、入力画像・空間モデル対応マップ40及び空間モデル・出力画像対応マップ41を参照しながら入力画像平面R4上の座標と空間モデルMD上の座標との対応関係、及び、空間モデルMD上の座標と出力画像平面R5上の座標との対応関係を辿り、出力画像平面R5上の各座標に対応する入力画像平面R4上の座標が有する値(例えば、輝度値、色相値、彩度値等である。)を取得し、その取得した値を、対応する出力画像平面R5上の各座標の値として採用する(ステップS5)。なお、出力画像平面R5上の一座標に対して一又は複数の入力画像平面R4上の複数の座標が対応する場合、出力画像生成手段11は、それら複数の座標のそれぞれの値に基づく統計値(例えば、平均値、最大値、最小値、中間値等である。)を導き出し、出力画像平面R5上のその一座標の値としてその統計値を採用するようにしてもよい。   On the other hand, if the control unit 1 determines that all coordinates are associated (YES in step S4), the output image generation unit 11 causes the input image / space model correspondence map 40 and the space model / output image correspondence map 41 to be matched. , The correspondence between the coordinates on the input image plane R4 and the coordinates on the space model MD, and the correspondence between the coordinates on the space model MD and the coordinates on the output image plane R5 are traced, and the output image plane R5 A value (for example, a luminance value, a hue value, a saturation value, etc.) possessed by coordinates on the input image plane R4 corresponding to each of the above coordinates is acquired, and the acquired value is used as the corresponding output image plane R5. The values of the above coordinates are adopted (step S5). When a plurality of coordinates on one or a plurality of input image planes R4 correspond to one coordinate on the output image plane R5, the output image generation unit 11 calculates a statistical value based on each value of the plurality of coordinates. (For example, an average value, a maximum value, a minimum value, an intermediate value, etc.) may be derived, and the statistical value may be adopted as the value of the one coordinate on the output image plane R5.

その後、制御部1は、出力画像平面R5上の全ての座標の値を入力画像平面R4上の座標の値に関連付けたか否かを判定し(ステップS6)、未だ全ての座標の値を関連付けていないと判定した場合には(ステップS6のNO)、ステップS5の処理を繰り返すようにする。   Thereafter, the control unit 1 determines whether or not all the coordinate values on the output image plane R5 are associated with the coordinate values on the input image plane R4 (step S6), and all the coordinate values are still associated with each other. If it is determined that there is not (NO in step S6), the process in step S5 is repeated.

一方、制御部1は、全ての座標の値を関連付けたと判定した場合には(ステップS6のYES)、出力画像を生成し、生成した出力画像を表示部5に対し出力して(ステップS7)、この一連の処理を終了させる。   On the other hand, if it is determined that all coordinate values are associated (YES in step S6), the control unit 1 generates an output image and outputs the generated output image to the display unit 5 (step S7). This series of processes is terminated.

以上の構成により、画像生成システム100は、ワイヤロープ68で吊されたフック69と床面FFとの間の位置関係を操作者に直感的に把握させることが可能な出力画像を生成することができ、その出力画像を提示してその操作者によるフック69の上げ下げの操作を支援することができる。   With the above configuration, the image generation system 100 can generate an output image that allows the operator to intuitively grasp the positional relationship between the hook 69 suspended by the wire rope 68 and the floor surface FF. The output image can be presented to assist the operator in raising and lowering the hook 69.

また、画像生成システム100は、出力画像平面R5から空間モデルMDを経て入力画像平面R4に遡るように座標の対応付けを実行することにより、出力画像平面R5上の各座標を入力画像平面R4上の一又は複数の座標に確実に対応させることができ、入力画像平面R4から空間モデルMDを経て出力画像平面R5に至る順番で座標の対応付けを実行する場合と比べ(この場合には、入力画像平面R4上の各座標を出力画像平面R5上の一又は複数の座標に確実に対応させることができるが、出力画像平面R5上の座標の一部が、入力画像平面R4上の何れの座標にも対応付けられない場合があり、その場合にはそれら出力画像平面R5上の座標の一部に補間処理等を施す必要がある。)、より良質な出力画像を迅速に生成することができる。   In addition, the image generation system 100 executes coordinate association from the output image plane R5 to the input image plane R4 via the spatial model MD, so that each coordinate on the output image plane R5 is displayed on the input image plane R4. Compared with the case where coordinates are associated in the order from the input image plane R4 to the output image plane R5 through the spatial model MD (in this case, the input Each coordinate on the image plane R4 can be made to correspond to one or more coordinates on the output image plane R5. However, a part of the coordinates on the output image plane R5 is any coordinate on the input image plane R4. In such a case, it is necessary to perform interpolation processing or the like on some of the coordinates on the output image plane R5.), It is possible to quickly generate a higher quality output image. That.

また、画像生成システム100は、出力画像の視点を変更する場合には、仮想カメラ2Vの各種パラメータの値を変更して空間モデル・出力画像対応マップ41を書き換えるだけで、入力画像・空間モデル対応マップ40の内容を書き換えることなく、所望の視点から見た出力画像(視点変換画像)を生成することができる。   Further, when changing the viewpoint of the output image, the image generation system 100 only needs to rewrite the space model / output image correspondence map 41 by changing the values of various parameters of the virtual camera 2V, thereby supporting the input image / space model. An output image (viewpoint conversion image) viewed from a desired viewpoint can be generated without rewriting the contents of the map 40.

次に、図13を参照しながら、本発明の第二実施例について説明する。   Next, a second embodiment of the present invention will be described with reference to FIG.

図13は、本発明の第二実施例に係る画像生成システム200の構成例を概略的に示すブロック図である。   FIG. 13 is a block diagram schematically showing a configuration example of an image generation system 200 according to the second embodiment of the present invention.

画像生成システム200は、制御部1につり具位置検出手段12を有する点で図1の画像生成システム100と相違するが、その他の点で共通する。そのため、共通点に関する説明を省略しながら、相違点を詳細に説明することとする。   The image generation system 200 is different from the image generation system 100 in FIG. 1 in that the control unit 1 includes the suspension position detection unit 12, but is common in other points. Therefore, the difference will be described in detail while omitting the description of the common points.

つり具位置検出手段12は、つり具の鉛直位置を検出するための手段であり、例えば、巻上装置67におけるドラムの回転角を計測する回転角センサの出力に基づいてワイヤロープ68の繰り出し量を導き出し、その繰り出し量に基づいて現時点におけるフック69の鉛直位置(例えば、地面からの高さである。)を検出し、検出したフック69の鉛直位置に関する情報を出力画像生成手段11に対して出力する。   The suspension position detecting means 12 is a means for detecting the vertical position of the suspension. For example, the amount of feeding of the wire rope 68 is derived based on the output of the rotation angle sensor that measures the rotation angle of the drum in the hoisting device 67. Based on the feed amount, the current vertical position of the hook 69 (for example, the height from the ground) is detected, and information regarding the detected vertical position of the hook 69 is output to the output image generation means 11. .

また、つり具位置検出手段12は、巻上装置67に取り付けられた距離センサ(例えば、光、電波、又は超音波を用いた距離センサである。)の出力に基づいて巻上装置67(距離センサ)とフック69との間の距離を導き出し、その距離に基づいて現時点におけるフック69の鉛直位置を検出するようにしてもよい。   Moreover, the lifting tool position detection means 12 is based on the output of the distance sensor (For example, it is a distance sensor using light, an electromagnetic wave, or an ultrasonic wave) attached to the winding apparatus 67. ) And the hook 69 may be derived, and the current vertical position of the hook 69 may be detected based on the distance.

第二実施例において、出力画像生成手段11は、つり具位置検出手段12から受けたフック69の鉛直位置に関する情報に基づいて、仮想カメラの光学中心の鉛直位置及び光軸方向を決定し、フック69の仮想的な水平画像を出力画像として生成する。   In the second embodiment, the output image generation means 11 determines the vertical position and optical axis direction of the optical center of the virtual camera based on the information about the vertical position of the hook 69 received from the suspension position detection means 12, and the hook 69. Are generated as an output image.

具体的には、出力画像生成手段11は、例えば、現時点におけるフック69の鉛直位置と仮想カメラの光学中心の鉛直位置とを同じにし、且つその光軸方向をフック69に向けるようにし、フック69の鉛直位置の変化に応じて仮想カメラの光学中心の鉛直位置を変化させるようにする。   Specifically, for example, the output image generation unit 11 makes the vertical position of the hook 69 at the current time the same as the vertical position of the optical center of the virtual camera, and directs the optical axis direction to the hook 69. The vertical position of the optical center of the virtual camera is changed according to the change of the vertical position of the virtual camera.

以上の構成により、画像生成システム200は、フック69の鉛直位置の変化にかかわらず、常にフック69を真横から見た出力画像を操作者に提示することができ、ワイヤロープ68で吊されたフック69と床面FFとの間の位置関係を操作者により直感的に把握させることができる。   With the above configuration, the image generation system 200 can always present an output image in which the hook 69 is viewed from the side to the operator regardless of a change in the vertical position of the hook 69, and the hook suspended by the wire rope 68. The operator can intuitively grasp the positional relationship between 69 and the floor surface FF.

次に、図14〜図18を参照しながら、本発明の第三実施例について説明する。   Next, a third embodiment of the present invention will be described with reference to FIGS.

図14は、本発明の第三実施例に係る画像生成システム300の構成例を概略的に示すブロック図である。   FIG. 14 is a block diagram schematically showing a configuration example of an image generation system 300 according to the third embodiment of the present invention.

画像生成システム300は、三台のカメラ20、21、及び22を有し、且つ、制御部1に凹凸検出手段13を有する点で図1の画像生成システム100と相違するが、その他の点で共通する。そのため、共通点に関する説明を省略しながら、相違点を詳細に説明することとする。   The image generation system 300 is different from the image generation system 100 of FIG. 1 in that it has three cameras 20, 21, and 22, and the control unit 1 has unevenness detection means 13. Common. Therefore, the difference will be described in detail while omitting the description of the common points.

カメラ20及びカメラ22はそれぞれ、図15(A)で示されるように、ガーダ63に取り付けられ、天井クレーン60の下の床面FFを撮像するカメラであり、撮像した画像を入力画像として制御部1に対して出力する。なお、カメラ20及びカメラ22は、トロリ66の横行方向にトロリ66を挟むようにトロリ66に取り付けられていてもよい。   As shown in FIG. 15A, each of the camera 20 and the camera 22 is a camera that is attached to the girder 63 and images the floor surface FF under the overhead crane 60. The control unit uses the captured images as input images. 1 is output. The camera 20 and the camera 22 may be attached to the trolley 66 so as to sandwich the trolley 66 in the transverse direction of the trolley 66.

カメラ21は、画像生成システム100におけるカメラ2と同様、トロリ66に取り付けられトロリ66と共に横行するカメラであり、撮像した画像を入力画像として制御部1に対して出力する。   Similarly to the camera 2 in the image generation system 100, the camera 21 is a camera that is attached to the trolley 66 and traverses along with the trolley 66, and outputs the captured image to the control unit 1 as an input image.

凹凸検出手段13は、床面FFの凹凸を検出するための手段であり、例えば、トロリ66に取り付けられトロリ66と共に横行する図示しない距離センサ(例えば、光、電波、又は超音波を用いた距離センサであり、横行方向に巻上装置67を挟んで取り付けられ、トロリ66と共に横行しながら床面FFを走査する距離センサである。)の出力に基づいて、床面FFの凹凸を検出し、その検出結果を座標対応付け手段10に対して出力する。   The unevenness detecting means 13 is a means for detecting unevenness of the floor surface FF, for example, a distance sensor (for example, a distance using light, radio waves, or ultrasonic waves) that is attached to the trolley 66 and traverses along with the trolley 66. Sensor is a distance sensor that is mounted across the hoisting device 67 in the transverse direction and scans the floor surface FF while traversing along with the trolley 66. The detection result is output to the coordinate association means 10.

また、凹凸検出手段13は、ROM等に予め記憶された床面FFの凹凸に関するデータ(例えば、XY座標と所定の基準レベルに対する床面FFの高さとの組み合わせからなるデータである。)と現在位置のXY座標(例えば、公知の手段によって得られるトロリ66の現在位置である。)とに基づいて床面FFの凹凸を検出し、その検出結果を座標対応付け手段10に対して出力するようにしてもよい。   Further, the unevenness detecting means 13 is data relating to the unevenness of the floor surface FF stored in advance in a ROM or the like (for example, data consisting of a combination of XY coordinates and the height of the floor surface FF with respect to a predetermined reference level). The unevenness of the floor surface FF is detected based on the XY coordinates of the position (for example, the current position of the trolley 66 obtained by a known means), and the detection result is output to the coordinate association means 10. It may be.

第三実施例において、座標対応付け手段10は、凹凸検出手段13の出力に基づいてフック69の鉛直下方にある面の高さが周囲の床面FFの高さと異なるか否かを判定し、その面の高さが周囲の床面FFの高さと異なると判定した場合には、その面と床面FFとの間の段差のところで、カメラ21の死角となり且つカメラ20若しくはカメラ22の一方の死角となる領域が存在するとして、カメラ21の撮像画像(フック69の鉛直下方にある面を鉛直斜め上方から撮像した画像であり、以下「見下ろし画像」とする。)の代わりに、カメラ20及びカメラ22のそれぞれの撮像画像を入力画像としながら、カメラ20及びカメラ22のそれぞれの入力画像平面上の座標と空間モデルMD上の座標とを対応付ける。なお、上述の説明は、カメラ21が存在しない場合にも適用され得る。   In the third embodiment, the coordinate association means 10 determines whether the height of the surface below the hook 69 is different from the height of the surrounding floor surface FF based on the output of the unevenness detection means 13, When it is determined that the height of the surface is different from the height of the surrounding floor surface FF, at the level difference between the surface and the floor surface FF, the blind spot of the camera 21 and one of the camera 20 or the camera 22 are displayed. Assuming that there is a blind area, instead of the captured image of the camera 21 (an image obtained by capturing an image of the surface below the hook 69 vertically obliquely from above, hereinafter referred to as “looking-down image”), the camera 20 and While taking each captured image of the camera 22 as an input image, the coordinates on the input image plane of the camera 20 and the camera 22 are associated with the coordinates on the space model MD. The above description can also be applied to the case where the camera 21 is not present.

また、座標対応付け手段10は、カメラ21単独の撮像画像(見下ろし画像)の代わりに、カメラ20〜22のそれぞれの撮像画像を入力画像としながら、カメラ20〜22のそれぞれの入力画像平面上の座標と空間モデルMD上の座標とを対応付けるようにしてもよい。   In addition, the coordinate association unit 10 uses the captured images of the cameras 20 to 22 as input images instead of the captured images (looking-down images) of the camera 21 alone on the input image planes of the cameras 20 to 22. You may make it match a coordinate and the coordinate on space model MD.

図15は、視点変換により仮想的な見下ろし画像を生成する処理を説明するための図であり、図15(A)は、図2(B)と同様のクレーン60の正面図を示し、図15(B)は、カメラ20〜22のそれぞれの撮像画像を示し、図15(C)は、カメラ20及びカメラ22のそれぞれの撮像画像と空間モデルMDとの間の関係並びにそれら撮像画像の組み合わせ及び視点変換の結果として得られる出力画像を示し、図15(D)は、カメラ20、カメラ21及びカメラ22のそれぞれの撮像画像と空間モデルMDとの間の関係並びにそれら撮像画像の組み合わせ及び視点変換の結果として得られる出力画像を示す。   FIG. 15 is a diagram for explaining a process of generating a virtual looking-down image by viewpoint conversion. FIG. 15A shows a front view of the crane 60 similar to FIG. (B) shows the respective captured images of the cameras 20 to 22, and FIG. 15 (C) shows the relationship between the captured images of the camera 20 and the camera 22 and the spatial model MD, and combinations of these captured images and FIG. 15D shows an output image obtained as a result of the viewpoint conversion, and FIG. 15D shows a relationship between the captured images of the camera 20, the camera 21, and the camera 22 and the spatial model MD, a combination of the captured images, and a viewpoint conversion. The output image obtained as a result of is shown.

図15(A)は、フック69の鉛直下方に吊り荷OBJが置かれ、その吊り荷OBJの脇に作業者HMが存在する状態を示す。なお、図の一点鎖線、破線及び二点鎖線はそれぞれ、カメラ20〜22のそれぞれの撮像範囲を示す。   FIG. 15A shows a state where the suspended load OBJ is placed vertically below the hook 69 and the worker HM is present beside the suspended load OBJ. In addition, the dashed-dotted line of a figure, a broken line, and a dashed-two dotted line show each imaging range of the cameras 20-22, respectively.

この場合、図15(B)で示されるように、カメラ20の撮像画像IM1及びカメラ21の撮像画像IM2は何れも作業者HMの存在を分かり易く捉えることができておらず、カメラ22の撮像画像IM3のみが作業者HMの存在を分かり易く捉えることができている。   In this case, as shown in FIG. 15B, neither the captured image IM1 of the camera 20 nor the captured image IM2 of the camera 21 can easily grasp the presence of the worker HM, and the image of the camera 22 is captured. Only the image IM3 can easily understand the presence of the worker HM.

座標対応付け手段10は、凹凸検出手段13の出力に基づいてフック69の鉛直下方にある吊り荷OBJの頂面の高さが周囲の床面FFの高さより高いと判定すると、図15(C)で示されるように、空間モデルMDの水平面R1における領域SR1(ワイヤロープ68を通る直線と床面FFとの交点を含みX軸方向に延びる直線を境界とした水平面R1の左側の領域)上の座標とカメラ20の入力画像平面上の座標とを対応付け、且つ、空間モデルMDの水平面R1における領域SR2(水平面R1の右側の領域)上の座標とカメラ22の入力画像平面上の座標とを対応付け、それらの対応関係を入力画像・空間モデル対応マップ40に記憶する。   If the coordinate matching means 10 determines that the height of the top surface of the suspended load OBJ vertically below the hook 69 is higher than the height of the surrounding floor surface FF based on the output of the unevenness detecting means 13, FIG. ) On the region SR1 in the horizontal plane R1 of the space model MD (the region on the left side of the horizontal plane R1 including the intersection of the straight line passing through the wire rope 68 and the floor surface FF, and extending along the X axis) And the coordinates on the input image plane of the camera 20 and the coordinates on the area SR2 (the area on the right side of the horizontal plane R1) in the horizontal plane R1 of the spatial model MD and the coordinates on the input image plane of the camera 22 Are stored in the input image / space model correspondence map 40.

また、出力画像生成手段11は、仮想的な見下ろし画像を生成するための仮想カメラの光学中心、焦点距離、CCDサイズ、光軸方向ベクトル、カメラ水平方向ベクトル、射影方式等の各種パラメータを決定し(例えば、仮想カメラのパラメータは、カメラ21のパラメータと同じ値に設定される。)、出力画像平面上の座標と空間モデルMD上の座標とを対応付け、その対応関係を空間モデル・出力画像対応マップ41に記憶し、且つ、入力画像・空間モデル対応マップ40を参照しながら、出力画像における各画素の値(例えば、輝度値、色相値、彩度値等である。)と二つの入力画像における各画素の値とを関連付けて図15(C)で示されるような出力画像を生成する。   The output image generation means 11 determines various parameters such as the optical center of the virtual camera, focal length, CCD size, optical axis direction vector, camera horizontal direction vector, and projection method for generating a virtual looking down image. (For example, the parameters of the virtual camera are set to the same values as the parameters of the camera 21.) The coordinates on the output image plane and the coordinates on the space model MD are associated with each other, and the corresponding relationship is represented by the space model / output image. While storing in the correspondence map 41 and referring to the input image / spatial model correspondence map 40, values of each pixel in the output image (for example, a luminance value, a hue value, a saturation value, etc.) and two inputs An output image as shown in FIG. 15C is generated in association with the value of each pixel in the image.

或いは、座標対応付け手段10は、凹凸検出手段13の出力に基づいてフック69の鉛直下方にある吊り荷OBJの頂面の高さが周囲の床面FFの高さより高いと判定すると、図15(D)で示されるように、空間モデルMDの水平面R1における領域SR3(水平面R1の左側の領域)上の座標とカメラ20の入力画像平面上の座標とを対応付け、空間モデルMDの水平面R1における領域SR4(水平面R1の中央の領域)上の座標とカメラ21の入力画像平面上の座標とを対応付け、且つ、空間モデルMDの水平面R1における領域SR5(水平面R1の右側の領域)上の座標とカメラ22の入力画像平面上の座標とを対応付け、それらの対応関係を入力画像・空間モデル対応マップ40に記憶するようにしてもよい。この場合、出力画像生成手段11は、図15(D)で示されるような出力画像を生成する。   Alternatively, when the coordinate association unit 10 determines that the height of the top surface of the suspended load OBJ that is vertically below the hook 69 is higher than the height of the surrounding floor surface FF based on the output of the unevenness detection unit 13, FIG. As shown in (D), the coordinates on the area SR3 (the area on the left side of the horizontal plane R1) in the horizontal plane R1 of the spatial model MD are associated with the coordinates on the input image plane of the camera 20, and the horizontal plane R1 of the spatial model MD The coordinates on the area SR4 (the center area of the horizontal plane R1) in FIG. 5 are associated with the coordinates on the input image plane of the camera 21, and on the area SR5 (the area on the right side of the horizontal plane R1) in the horizontal plane R1 of the spatial model MD. The coordinates and coordinates on the input image plane of the camera 22 may be associated with each other, and the corresponding relationship may be stored in the input image / space model correspondence map 40. In this case, the output image generation means 11 generates an output image as shown in FIG.

図16は、視点変換により仮想的な見下ろし画像を生成する別の処理を説明するための図であり、図16(A)は、図2(B)と同様のクレーン60の正面図を示し、図16(B)は、カメラ20〜22のそれぞれの撮像画像を示し、図16(C)は、カメラ20及びカメラ22のそれぞれの撮像画像と空間モデルMDとの間の関係並びにそれら撮像画像の組み合わせ及び視点変換の結果として得られる出力画像を示し、図16(D)は、カメラ20、カメラ21及びカメラ22のそれぞれの撮像画像と空間モデルMDとの間の関係並びにそれら撮像画像の組み合わせ及び視点変換の結果として得られる出力画像を示す。   FIG. 16 is a diagram for explaining another process of generating a virtual looking-down image by viewpoint conversion, and FIG. 16 (A) shows a front view of the crane 60 similar to FIG. 2 (B), FIG. 16B shows captured images of the cameras 20 to 22, and FIG. 16C shows the relationship between the captured images of the camera 20 and the camera 22 and the space model MD and the captured images. FIG. 16D illustrates an output image obtained as a result of the combination and viewpoint conversion, and FIG. 16D illustrates the relationship between the captured images of the camera 20, the camera 21, and the camera 22 and the space model MD, and combinations of the captured images. The output image obtained as a result of viewpoint conversion is shown.

図16(A)は、フック69の鉛直下方に溝GRが形成され、その溝GRの脇に作業者HMが存在する状態を示す。なお、図の一点鎖線、破線及び二点鎖線はそれぞれ、カメラ20〜22のそれぞれの撮像範囲を示す。   FIG. 16A shows a state in which a groove GR is formed vertically below the hook 69 and the worker HM is present beside the groove GR. In addition, the dashed-dotted line of a figure, a broken line, and a dashed-two dotted line show each imaging range of the cameras 20-22, respectively.

この場合、図16(B)で示されるように、カメラ20の撮像画像IM1及びカメラ21の撮像画像IM2は何れも作業者HMの存在を分かり易く捉えることができておらず、カメラ22の撮像画像IM3のみが作業者HMの存在を分かり易く捉えることができている。   In this case, as shown in FIG. 16B, neither the captured image IM1 of the camera 20 nor the captured image IM2 of the camera 21 can easily grasp the presence of the worker HM, and the image of the camera 22 is captured. Only the image IM3 can easily understand the presence of the worker HM.

座標対応付け手段10は、凹凸検出手段13の出力に基づいてフック69の鉛直下方にある溝GRの底面の高さが周囲の床面FFの高さより低いと判定すると、図16(C)で示されるように、空間モデルMDの水平面R1における領域SR1(水平面R1の左側の領域)上の座標とカメラ22の入力画像平面上の座標とを対応付け、且つ、空間モデルMDの水平面R1における領域SR2(水平面R1の右側の領域)上の座標とカメラ20の入力画像平面上の座標とを対応付け、それらの対応関係を入力画像・空間モデル対応マップ40に記憶する。なお、この配置は、図15(C)で示された配置と比較すると、対応付けが左右で正反対となっている。   If the coordinate matching means 10 determines that the height of the bottom surface of the groove GR vertically below the hook 69 is lower than the height of the surrounding floor surface FF based on the output of the unevenness detection means 13, in FIG. As shown, the coordinates on the area SR1 (the area on the left side of the horizontal plane R1) on the horizontal plane R1 of the spatial model MD are associated with the coordinates on the input image plane of the camera 22, and the area on the horizontal plane R1 of the spatial model MD The coordinates on SR2 (the area on the right side of the horizontal plane R1) and the coordinates on the input image plane of the camera 20 are associated with each other, and the corresponding relationship is stored in the input image / space model correspondence map 40. Note that this arrangement is opposite to the right and left as compared with the arrangement shown in FIG.

また、出力画像生成手段11は、仮想的な見下ろし画像を生成するための仮想カメラの光学中心、焦点距離、CCDサイズ、光軸方向ベクトル、カメラ水平方向ベクトル、射影方式等の各種パラメータを決定し(例えば、仮想カメラのパラメータは、カメラ21のパラメータと同じ値に設定される。)、出力画像平面上の座標と空間モデルMD上の座標とを対応付け、その対応関係を空間モデル・出力画像対応マップ41に記憶し、且つ、入力画像・空間モデル対応マップ40を参照しながら、出力画像における各画素の値(例えば、輝度値、色相値、彩度値等である。)と二つの入力画像における各画素の値とを関連付けて図16(C)で示されるような出力画像を生成する。   The output image generation means 11 determines various parameters such as the optical center of the virtual camera, focal length, CCD size, optical axis direction vector, camera horizontal direction vector, and projection method for generating a virtual looking down image. (For example, the parameters of the virtual camera are set to the same values as the parameters of the camera 21.) The coordinates on the output image plane and the coordinates on the space model MD are associated with each other, and the corresponding relationship is represented by the space model / output image. While storing in the correspondence map 41 and referring to the input image / spatial model correspondence map 40, values of each pixel in the output image (for example, a luminance value, a hue value, a saturation value, etc.) and two inputs An output image as shown in FIG. 16C is generated in association with the value of each pixel in the image.

或いは、座標対応付け手段10は、凹凸検出手段13の出力に基づいてフック69の鉛直下方にある溝GRの底面の高さが周囲の床面FFの高さより低いと判定すると、図16(D)で示されるように、空間モデルMDの水平面R1における領域SR3(水平面R1の左側の領域)上の座標とカメラ20の入力画像平面上の座標とを対応付け、空間モデルMDの水平面R1における領域SR4(水平面R1の中央の領域)上の座標とカメラ21の入力画像平面上の座標とを対応付け、且つ、空間モデルMDの水平面R1における領域SR5(水平面R1の右側の領域)上の座標とカメラ22の入力画像平面上の座標とを対応付け、それらの対応関係を入力画像・空間モデル対応マップ40に記憶するようにしてもよい。この場合、出力画像生成手段11は、図16(D)で示されるような出力画像を生成する。   Alternatively, if the coordinate matching means 10 determines that the height of the bottom surface of the groove GR vertically below the hook 69 is lower than the height of the surrounding floor surface FF based on the output of the unevenness detection means 13, FIG. ), The coordinates on the area SR3 (the area on the left side of the horizontal plane R1) in the horizontal plane R1 of the spatial model MD are associated with the coordinates on the input image plane of the camera 20, and the area in the horizontal plane R1 of the spatial model MD The coordinates on SR4 (the center area of the horizontal plane R1) are associated with the coordinates on the input image plane of the camera 21, and the coordinates on the area SR5 (the area on the right side of the horizontal plane R1) in the horizontal plane R1 of the spatial model MD The coordinates on the input image plane of the camera 22 may be associated with each other, and the corresponding relationship may be stored in the input image / space model correspondence map 40. In this case, the output image generation means 11 generates an output image as shown in FIG.

なお、座標対応付け手段10は、凹凸検出手段13の出力によらず、予め定められた対応関係に基づいて空間モデルMD上の座標と複数のカメラのそれぞれの入力画像平面上の座標とを対応付け、或いは、入力部3を介した操作者の入力に応じて空間モデルMD上の座標と複数のカメラのそれぞれの入力画像平面上の座標との間の対応関係を切り換えて、それらの対応関係を入力画像・空間モデル対応マップ40に記憶するようにしてもよい。この場合、凹凸検出手段13は、省略されることとなる。   Note that the coordinate association unit 10 associates the coordinates on the space model MD with the coordinates on the input image planes of the plurality of cameras based on a predetermined correspondence relationship, regardless of the output of the unevenness detection unit 13. Or by switching the correspondence between the coordinates on the space model MD and the coordinates on the input image planes of the plurality of cameras according to the input from the operator via the input unit 3 May be stored in the input image / space model correspondence map 40. In this case, the unevenness detecting means 13 is omitted.

図17は、図15におけるカメラ20〜22のそれぞれの撮像画像に基づいて仮想的な見下ろし画像と仮想的な水平画像とを生成する処理を説明するための図である。   FIG. 17 is a diagram for describing processing for generating a virtual looking-down image and a virtual horizontal image based on the captured images of the cameras 20 to 22 in FIG. 15.

座標対応付け手段10は、凹凸検出手段13の出力に基づいてフック69の鉛直下方にある吊り荷OBJの頂面の高さが周囲の床面FFの高さより高いと判定すると、空間モデルMDの水平面R1における領域SR3(水平面R1の左側の領域)上の座標とカメラ20の入力画像平面上の座標とを対応付け、空間モデルMDの水平面R1における領域SR4(水平面R1の中央の領域)上の座標とカメラ21の入力画像平面上の座標とを対応付け、空間モデルMDの水平面R1における領域SR5(水平面R1の右側の領域)上の座標とカメラ22の入力画像平面上の座標とを対応付け、空間モデルMDの垂直面R2における領域SR6(垂直面R1の左側の領域)上の座標とカメラ20の入力画像平面上の座標とを対応付け、空間モデルMDの垂直面R2における領域SR7(垂直面R1の中央の領域)上の座標とカメラ21の入力画像平面上の座標とを対応付け、且つ、空間モデルMDの垂直面R2における領域SR8(垂直面R1の右側の領域)上の座標とカメラ22の入力画像平面上の座標とを対応付け、それらの対応関係を入力画像・空間モデル対応マップ40に記憶する。   If the coordinate matching means 10 determines that the height of the top surface of the suspended load OBJ vertically below the hook 69 is higher than the height of the surrounding floor surface FF based on the output of the unevenness detecting means 13, the coordinate model means 10 The coordinates on the area SR3 in the horizontal plane R1 (the area on the left side of the horizontal plane R1) and the coordinates on the input image plane of the camera 20 are associated with each other on the area SR4 in the horizontal plane R1 of the spatial model MD (the central area of the horizontal plane R1). The coordinates are associated with the coordinates on the input image plane of the camera 21, and the coordinates on the area SR5 (the area on the right side of the horizontal plane R1) on the horizontal plane R1 of the spatial model MD are associated with the coordinates on the input image plane of the camera 22. The coordinates on the area SR6 (the area on the left side of the vertical plane R1) in the vertical plane R2 of the space model MD are associated with the coordinates on the input image plane of the camera 20, and the space model M The coordinates on the area SR7 (the center area of the vertical plane R1) on the vertical plane R2 and the coordinates on the input image plane of the camera 21 are associated with each other, and the area SR8 (vertical plane R1) on the vertical plane R2 of the space model MD And the coordinates on the input image plane of the camera 22 are stored in the input image / space model correspondence map 40.

また、出力画像生成手段11は、仮想的な見下ろし画像を生成するための第一の仮想カメラのパラメータを決定し(例えば、第一の仮想カメラのパラメータは、カメラ21のパラメータと同じ値に設定される。)、且つ、仮想的な水平画像を生成するための第二の仮想カメラのパラメータを決定し、二つの出力画像(仮想的な見下ろし画像及び仮想的な水平画像である。)のそれぞれに対応する出力画像平面上の座標と空間モデルMD上の座標とを対応付け、それらの対応関係を空間モデル・出力画像対応マップ41に記憶し、且つ、入力画像・空間モデル対応マップ40を参照しながら、それら二つの出力画像における各画素の値(例えば、輝度値、色相値、彩度値等である。)と三つの入力画像における各画素の値とを関連付けて図17で示されるような二つの出力画像を生成する。   Further, the output image generation unit 11 determines a parameter of the first virtual camera for generating a virtual look-down image (for example, the parameter of the first virtual camera is set to the same value as the parameter of the camera 21). And determining the parameters of the second virtual camera for generating the virtual horizontal image, and each of the two output images (the virtual looking-down image and the virtual horizontal image). The coordinates on the output image plane corresponding to the coordinate on the space model MD are associated with each other, the corresponding relationship is stored in the space model / output image correspondence map 41, and the input image / space model correspondence map 40 is referred to. However, the values of the pixels in the two output images (for example, the brightness value, the hue value, the saturation value, etc.) and the values of the pixels in the three input images are associated with each other in FIG. It generates two output image as shown.

図18は、図16におけるカメラ20〜22のそれぞれの撮像画像に基づいて仮想的な見下ろし画像と仮想的な水平画像とを生成する処理を説明するための図であり、フック69の鉛直下方にある溝GRの底面の高さが周囲の床面FFの高さより低い点、領域SR3及び領域SR6上の座標とカメラ22の入力画像平面上の座標とを対応付ける点、並びに、領域SR5及び領域SR8上の座標とカメラ20の入力画像平面上の座標とを対応付ける点において図17の場合と異なるがその他の点で共通する。なお、図18の仮想的な水平画像における斜線ハッチング領域は、床面FFの断面を表すコンピュータグラフィックである。   FIG. 18 is a diagram for explaining processing for generating a virtual looking-down image and a virtual horizontal image based on the captured images of the cameras 20 to 22 in FIG. The point where the height of the bottom surface of a certain groove GR is lower than the height of the surrounding floor surface FF, the point where the coordinates on the region SR3 and the region SR6 are associated with the coordinate on the input image plane of the camera 22, and the region SR5 and the region SR8 Although different from the case of FIG. 17 in that the upper coordinates and the coordinates on the input image plane of the camera 20 are associated, the other points are common. Note that the hatched area in the virtual horizontal image of FIG. 18 is a computer graphic representing a cross section of the floor surface FF.

なお、画像生成システム300は、Y軸方向(横行方向)に巻上装置67を挟んで取り付けられるカメラ20及びカメラ22を用いて仮想的な見下ろし画像を生成するが、それらカメラ20及び22に代えて或いは加えて、X軸方向(走行方向)に巻上装置67を挟んで取り付けられる二つのカメラを用いて仮想的な見下ろし画像を生成するようにしてもよい。   Note that the image generation system 300 generates a virtual looking-down image using the camera 20 and the camera 22 attached with the hoisting device 67 sandwiched in the Y-axis direction (transverse direction). Alternatively or additionally, a virtual look-down image may be generated using two cameras attached with the hoisting device 67 sandwiched in the X-axis direction (traveling direction).

また、画像生成システム300は、それら四つのカメラのうちの任意の二つ又は三つを用いて仮想的な見下ろし画像を生成するようにしてもよく、五つ以上のカメラを用いて仮想的な見下ろし画像を生成するようにしてもよい。また、それらのカメラは、必ずしも、巻上装置67を通る一直線上に配置される必要はなく、互いの死角を補うように配置されるのであれば任意の位置関係で配置されてもよい。   Further, the image generation system 300 may generate a virtual look-down image using any two or three of the four cameras, and may use five or more cameras to generate a virtual view. A look-down image may be generated. In addition, these cameras do not necessarily have to be arranged on a straight line passing through the hoisting device 67, and may be arranged in any positional relationship as long as they are arranged so as to compensate for each other's blind spot.

以上の構成により、画像生成システム300は、フック69を用いた作業が行われる領域における死角や見難さを排除した仮想的な見下ろし画像を提示することができ、その操作者によるフック69の上げ下げの操作を支援することができる。   With the above configuration, the image generation system 300 can present a virtual looking-down image that eliminates blind spots and difficulty in viewing in the area where the work using the hook 69 is performed, and the operator raises and lowers the hook 69. Can support the operation.

次に、図19〜図25を参照しながら、本発明の第四実施例について説明する。   Next, a fourth embodiment of the present invention will be described with reference to FIGS.

図19は、本発明の第四実施例に係る画像生成システム400の構成例を概略的に示すブロック図であり、図20は、画像生成システム400がそれぞれ搭載される三台の天井クレーン60A〜60Cを示す図である。なお、図20(A)は、一対のランウェイ61L、61R上を走行する三台の天井クレーン60A〜60Cの上面図を示し、図20(B)は、図20(A)のXVIIB−XVIIB方向から見た天井クレーン60Aの正面図を示す。   FIG. 19 is a block diagram schematically illustrating a configuration example of an image generation system 400 according to the fourth embodiment of the present invention. FIG. 20 illustrates three overhead cranes 60A to 60A on which the image generation system 400 is mounted. It is a figure which shows 60C. 20A shows a top view of the three overhead cranes 60A to 60C traveling on the pair of runways 61L and 61R, and FIG. 20B shows the XVIIB-XVIIB direction of FIG. 20A. The front view of overhead crane 60A seen from is shown.

天井クレーン60A〜60Cのそれぞれに搭載される画像生成システム400は、カメラ2(図20(A)におけるカメラ2A〜2Cのうちの一つである。)以外に二台のカメラ23(図20(A)におけるカメラ23A〜23Cのうちの一つである。)及び24(図20(A)におけるカメラ24A〜24Cのうちの一つである。)を有し、且つ、制御部1に目盛り描画手段14を有する点で図1の画像生成システム100と相違するが、その他の点で共通する。そのため、共通点に関する説明を省略しながら、相違点を詳細に説明することとする。なお、本実施例において、画像生成システム400は、天井クレーン60Bに搭載されたものを代表として説明するが、天井クレーン60A及び60Cに搭載されたものにも同様の説明が適用されるものとする。   In addition to the camera 2 (one of the cameras 2A to 2C in FIG. 20A), the image generation system 400 mounted on each of the overhead cranes 60A to 60C includes two cameras 23 (FIG. A) and one of the cameras 23A to 23C in FIG. 20A and 24 (one of the cameras 24A to 24C in FIG. 20A), and the controller 1 draws a scale. Although it differs from the image generation system 100 of FIG. 1 in that it has the means 14, it is common in other points. Therefore, the difference will be described in detail while omitting the description of the common points. In the present embodiment, the image generation system 400 will be described as a representative of those mounted on the overhead crane 60B, but the same description shall be applied to those mounted on the overhead cranes 60A and 60C. .

カメラ23Bは、天井クレーン60Bの後隣にある天井クレーン60Aにおけるガーダ63Aの表面(天井クレーン60Bを向く面である。)に描画されたマーク25A(図20(B)参照。)を撮像するためのカメラであり、天井クレーン60Bにおけるガーダ63Bの表面(天井クレーン60Aを向く面である。)に固定的に取り付けられ、好適には、その光軸が天井クレーン60Aにおけるガーダ63Aのその表面と直交するように設置される。   The camera 23B images the mark 25A (see FIG. 20B) drawn on the surface of the girder 63A (the surface facing the overhead crane 60B) in the overhead crane 60A adjacent to the rear of the overhead crane 60B. It is fixedly attached to the surface of the girder 63B (the surface facing the overhead crane 60A) of the overhead crane 60B, and preferably its optical axis is orthogonal to the surface of the girder 63A of the overhead crane 60A. To be installed.

同様に、カメラ24Bは、天井クレーン60Bの前隣にある天井クレーン60Cにおけるガーダ63Cの表面(天井クレーン60Bを向く面である。)に描画されたマーク25C(図示せず。)を撮像するためのカメラであり、天井クレーン60Bにおけるガーダ63Bの表面(天井クレーン60Cを向く面である。)に固定的に取り付けられ、好適には、その光軸が天井クレーン60Cにおけるガーダ63Cのその表面と直交するように設置される。   Similarly, the camera 24B images the mark 25C (not shown) drawn on the surface of the girder 63C (the surface facing the overhead crane 60B) in the overhead crane 60C adjacent to the front of the overhead crane 60B. It is fixedly attached to the surface of the girder 63B in the overhead crane 60B (the surface facing the overhead crane 60C), and preferably its optical axis is orthogonal to the surface of the girder 63C in the overhead crane 60C. To be installed.

マーク25Aは円形形状を有し、カメラ23Bの光軸がその中心点に当たるものとし、マーク25Cも同様に円形形状を有し、カメラ24Bの光軸がその中心点に当たるものとする。   The mark 25A has a circular shape, and the optical axis of the camera 23B corresponds to the center point thereof, and the mark 25C similarly has a circular shape, and the optical axis of the camera 24B corresponds to the center point thereof.

目盛り描画手段14は、カメラ23及びカメラ24のそれぞれの撮像画像を用いて、X軸方向(走行方向)における天井クレーン間の距離を分かり易く提示するための手段であり、具体的には、カメラ23及びカメラ24のそれぞれの撮像画像上に目盛りを重畳表示させて天井クレーン間の距離を分かり易く提示する。   The scale drawing unit 14 is a unit for presenting the distance between the overhead cranes in the X-axis direction (traveling direction) in an easy-to-understand manner using the captured images of the camera 23 and the camera 24. Specifically, the scale drawing unit 14 A scale is superimposed on each captured image of the camera 23 and the camera 24 so that the distance between the overhead cranes is presented in an easy-to-understand manner.

図21は、目盛り描画手段14による目盛り描画処理を説明するための図であり、カメラ23Bが撮像した三つの画像と、目盛り描画手段14により目盛りが重畳表示された出力画像とを示す。   FIG. 21 is a diagram for explaining the scale drawing process by the scale drawing unit 14 and shows three images captured by the camera 23B and an output image on which the scale is superimposed and displayed by the scale drawing unit 14.

図21は、カメラ23Bが撮像した三つの画像において、右側の画像、中央の画像、左側の画像の順に、天井クレーン60Aと天井クレーン60Bとの間のクレーン間距離が徐々に小さくなり、マーク25Aがカメラ23Bに接近してマーク25Aの画像が徐々に大きくなることを示し、カメラ23Bの光軸が常にマーク25Aの中心に当たり、マーク25Aの画像における画像中心点CCを中心とする外周円の半径が徐々に大きくなることを示す。   FIG. 21 shows that in the three images captured by the camera 23B, the distance between the cranes between the overhead crane 60A and the overhead crane 60B gradually decreases in the order of the right image, the center image, and the left image, and the mark 25A. Indicates that the image of the mark 25A gradually approaches the camera 23B, the optical axis of the camera 23B always hits the center of the mark 25A, and the radius of the outer circumference circle centering on the image center point CC in the image of the mark 25A Indicates that gradually increases.

目盛り描画手段14は、天井クレーン60Aと天井クレーン60Bとの間のクレーン間距離Lメートル(可変値)と、半径αメートル(固定値)の外周円の画像であり、カメラ23Bによる撮像画像における画像中心点CCを中心とするその外周円の画像の半径の大きさに対応する画素数(可変値)との対応関係を予め記憶したルックアップテーブルを参照し、例えば、クレーン間距離7メートルに対応する外周円半径40ピクセル、クレーン間距離3メートルに対応する外周円半径80ピクセル、及び、クレーン間距離1メートルに対応する外周円半径120ピクセルといったクレーン間距離と外周円半径との複数の組み合わせを読み出し、読み出した情報に基づいて出力画像上に目盛りを重畳表示する。 The scale drawing means 14 is an image of an outer circumference circle having an inter-crane distance L meter (variable value) and a radius α 0 meter (fixed value) between the overhead crane 60A and the overhead crane 60B. With reference to a look-up table in which the correspondence relationship with the number of pixels (variable value) corresponding to the radius of the image of the outer circle centered on the image center point CC is stored in advance, for example, the distance between the cranes is 7 meters. Multiple combinations of inter-crane distance and outer circle radius, such as corresponding outer circle radius of 40 pixels, outer circle radius of 80 pixels corresponding to a crane distance of 3 meters, and outer circle radius of 120 pixels corresponding to a distance between cranes of 1 meter , And a scale is superimposed and displayed on the output image based on the read information.

クレーン間距離と外周円半径との複数の組み合わせを決定するに際し、実際の外周円半径をαメートル、クレーン間距離をLメートルとすると、カメラ23Bの光学中心とその外周円上の一点とを結ぶ線分が光軸となす角θは、 When determining a plurality of combinations of the distance between the cranes and the outer circumference circle radius, if the actual outer circumference radius is α 0 meters and the distance between the cranes is L meters, the optical center of the camera 23B and one point on the outer circumference circle are determined. The angle θ between the connecting line and the optical axis is

Figure 0005575571
で表され、画像上の外周円半径をXOBJピクセル、カメラ23Bの画角をθcam、カメラ23Bの画角θcamに応じて決定される画像中心点CCから撮像画像の端までの画素数をXピクセルとすると、画像上の外周円半径XOBJは、
Figure 0005575571
The outer peripheral circle radius on the image is X OBJ pixels, the angle of view of the camera 23B is θ cam , and the number of pixels from the image center point CC determined according to the angle of view θ cam of the camera 23B to the end of the captured image Is X pixel, the outer circumference radius X OBJ on the image is

Figure 0005575571
で表される。
Figure 0005575571
It is represented by

このように、外周円半径α(メートル)、画角θcam、及び画像中心点CCから撮像画像の端までの画素数X(ピクセル)が既知であることから、クレーン間距離L(メートル)が決まれば、画像上の外周円半径XOBJ(ピクセル)は、一意に決定されることとなる。 As described above, since the outer peripheral circle radius α 0 (meter), the angle of view θ cam , and the number of pixels X (pixels) from the image center point CC to the end of the captured image are known, the inter-crane distance L (meter). Is determined, the outer peripheral circle radius X OBJ (pixel) on the image is uniquely determined.

なお、画像生成システム400は、複数の画角θcamに対応する複数のルックアップテーブルを準備しておき、ズーム機能を備えたカメラ23Bの画角θcamが変更された場合に、その変更後の画角θcamに対応するルックアップテーブルを選択して参照することによって、重畳表示される目盛りの幅を動的に調節するようにしてもよい。 The image generation system 400, previously preparing a plurality of lookup tables corresponding to a plurality of angle theta cam, when the angle theta cam camera 23B having a zoom function is changed, the changed By selecting and referring to a look-up table corresponding to the angle of view θ cam , the scale width displayed in a superimposed manner may be dynamically adjusted.

図21の出力画像は、目盛りが重畳表示された出力画像であり、破線で示された三つの円とそれぞれの円に対応するクレーン間距離(メートル)の値とを含む目盛りが重畳表示され、それら三つの円の半径は、内側から順にそれぞれ、40ピクセル、80ピクセル、及び120ピクセルとなっており、7メートル、3メートル、及び1メートルのクレーン間距離を表す。また、図21の出力画像は、現時点におけるクレーン間距離がおよそ5メートルであることを表す。   The output image of FIG. 21 is an output image in which scales are superimposed and displayed, and scales including three circles indicated by broken lines and the distance between the cranes (meters) corresponding to each circle are superimposed and displayed. The radii of these three circles are 40 pixels, 80 pixels, and 120 pixels, respectively, from the inside, and represent distances between cranes of 7 meters, 3 meters, and 1 meter. Moreover, the output image of FIG. 21 represents that the distance between cranes at the present time is about 5 meters.

図22は、目盛り描画手段14による別の目盛り描画処理を説明するための図であり、図21と同様、カメラ23Bが撮像した三つの画像と、目盛り描画手段14により目盛りが重畳表示された出力画像とを示す。   FIG. 22 is a diagram for explaining another scale drawing process by the scale drawing unit 14. Similarly to FIG. 21, three images captured by the camera 23 </ b> B and an output in which the scale is superimposed and displayed by the scale drawing unit 14 are shown. And an image.

図22は、円形のマーク25Aの代わりに矩形のマーク25A1がガーダ63Aの表面に描画されている点、カメラ23Bの光軸がマーク25A1の中心と一致しない点、カメラ23Bが撮像した三つの画像において、右側の画像、中央の画像、左側の画像の順に、天井クレーン60Aと天井クレーン60Bとの間のクレーン間距離が徐々に小さくなり、マーク25A1がカメラ23Bに接近してマーク25A1の画像が徐々に大きくなるにつれて、マーク25A1の画像の右端と画像中心点CCとの間の距離が徐々に大きくなることを利用する点において図21の場合と異なる。   FIG. 22 shows that a rectangular mark 25A1 is drawn on the surface of the girder 63A instead of the circular mark 25A, the optical axis of the camera 23B does not coincide with the center of the mark 25A1, and three images captured by the camera 23B. In this order, the distance between the cranes between the overhead crane 60A and the overhead crane 60B gradually decreases in the order of the right image, the center image, and the left image, the mark 25A1 approaches the camera 23B, and the image of the mark 25A1 is displayed. This is different from the case of FIG. 21 in that the distance between the right end of the image of the mark 25A1 and the image center point CC is gradually increased as it gradually increases.

目盛り描画手段14は、天井クレーン60Aと天井クレーン60Bとの間のクレーン間距離Lメートル(可変値)と、カメラ23Bの光軸が当たるガーダ63Aの表面上の点から距離αメートル(固定値)の位置にあるマーク25A1の画像であり、カメラ23Bによる撮像画像における画像中心点CCとそのマーク25A1の画像との間の離隔距離の大きさに対応する画素数(可変値)との対応関係を予め記憶したルックアップテーブルを参照し、例えば、クレーン間距離7メートルに対応する離隔距離60ピクセル、クレーン間距離3メートルに対応する離隔距離120ピクセル、及び、クレーン間距離1メートルに対応する離隔距離180ピクセルといったクレーン間距離と離隔距離との複数の組み合わせを読み出し、読み出した情報に基づいて出力画像上に目盛りを重畳表示する。 The scale drawing means 14 has a distance L between the crane 60 C between the overhead crane 60 </ b> A and the overhead crane 60 </ b> B (variable value) and a distance α 1 meter (fixed value) from a point on the surface of the girder 63 </ b> A where the optical axis of the camera 23 </ b> B hits. And the number of pixels (variable value) corresponding to the distance between the image center point CC and the image of the mark 25A1 in the image captured by the camera 23B. Is stored in advance, for example, a separation distance of 60 pixels corresponding to a distance between cranes of 7 meters, a separation distance of 120 pixels corresponding to a distance between cranes of 3 meters, and a separation corresponding to a distance between cranes of 1 meter. Read out multiple combinations of distances between cranes and separation distances, such as a distance of 180 pixels. Superimposed tick marks on an output image based on.

クレーン間距離と離隔距離との複数の組み合わせを決定する方法は、クレーン間距離と外周円半径との複数の組み合わせを決定する上述の方法と同様である。   A method for determining a plurality of combinations of the distance between the cranes and the separation distance is the same as the above-described method for determining a plurality of combinations of the distance between the cranes and the outer circumference circle radius.

図22の出力画像は、目盛りが重畳表示された出力画像であり、破線で示された三つの縦線とそれぞれの縦線に対応するクレーン間距離(メートル)の値とを含む目盛りが重畳表示され、それら三つの縦線の離隔距離は、右から順にそれぞれ、60ピクセル、120ピクセル、及び180ピクセルとなっており、7メートル、3メートル、及び1メートルのクレーン間距離を表す。また、図22の出力画像は、現時点におけるクレーン間距離がおよそ5メートルであることを表す。   The output image in FIG. 22 is an output image in which scales are superimposed and scales including three vertical lines indicated by broken lines and the distance between the cranes (meters) corresponding to each vertical line are superimposed and displayed. The separation distances of the three vertical lines are 60 pixels, 120 pixels, and 180 pixels in order from the right, respectively, and represent distances between cranes of 7 meters, 3 meters, and 1 meter. Moreover, the output image of FIG. 22 represents that the distance between cranes at the present time is about 5 meters.

図23は、目盛り描画手段14による更に別の目盛り描画処理を説明するための図であり、図21と同様、カメラ23Bが撮像した三つの画像と、目盛り描画手段14により目盛りが重畳表示された出力画像とを示す。   FIG. 23 is a diagram for explaining yet another scale drawing process by the scale drawing unit 14. Like FIG. 21, three images captured by the camera 23 </ b> B and the scale drawing unit 14 are displayed in a superimposed manner. An output image is shown.

図23は、マークがガーダ63Aの表面上に存在しない点、及びカメラ23Bが撮像した三つの画像において、右側の画像、中央の画像、左側の画像の順に、天井クレーン60Aと天井クレーン60Bとの間のクレーン間距離が徐々に小さくなるにつれて、ガーダ63Aの画像の上端と画像中心点CCとの間の距離が徐々に大きくなることを利用する点において図21の場合と異なる。   FIG. 23 shows that the mark is not present on the surface of the girder 63A, and the three images captured by the camera 23B are the right side image, the center image, and the left side image in the order of the overhead crane 60A and the overhead crane 60B. This is different from the case of FIG. 21 in that the distance between the upper end of the image of the girder 63A and the image center point CC is gradually increased as the distance between the cranes gradually decreases.

目盛り描画手段14は、天井クレーン60Aと天井クレーン60Bとの間のクレーン間距離Lメートル(可変値)と、カメラ23Bの光軸が当たるガーダ63Aの表面上の点から距離αメートル(固定値)の位置にその上端を有するガーダ63Aの画像であり、カメラ23Bによる撮像画像における画像中心点CCとそのガーダ63Aの画像の上端との間の離隔距離の大きさに対応する画素数(可変値)との対応関係を予め記憶したルックアップテーブルを参照し、例えば、クレーン間距離7メートルに対応する離隔距離30ピクセル、クレーン間距離3メートルに対応する離隔距離70ピクセル、及び、クレーン間距離1メートルに対応する離隔距離110ピクセルといったクレーン間距離と離隔距離との複数の組み合わせを読み出し、読み出した情報に基づいて出力画像上に目盛りを重畳表示する。 The scale drawing means 14 has an inter-crane distance L meter (variable value) between the overhead crane 60A and the overhead crane 60B and a distance α 2 meters (fixed value) from a point on the surface of the girder 63A where the optical axis of the camera 23B hits. The number of pixels (variable value) corresponding to the size of the separation distance between the image center point CC in the image captured by the camera 23B and the upper end of the image of the girder 63A. For example, a separation distance of 30 pixels corresponding to a distance between cranes of 7 meters, a separation distance of 70 pixels corresponding to a distance of 3 meters between cranes, and a distance between cranes of 1 Read out multiple combinations of distances between cranes and separation distances such as 110 pixel separations corresponding to meters, Superimposed tick marks on an output image based on the look out information.

クレーン間距離と離隔距離との複数の組み合わせを決定する方法は、クレーン間距離と外周円半径との複数の組み合わせを決定する上述の方法と同様である。   A method for determining a plurality of combinations of the distance between the cranes and the separation distance is the same as the above-described method for determining a plurality of combinations of the distance between the cranes and the outer circumference circle radius.

図23の出力画像は、目盛りが重畳表示された出力画像であり、破線で示された三つの横線とそれぞれの横線に対応するクレーン間距離(メートル)の値とを含む目盛りが重畳表示され、それら三つの横線の離隔距離は、下から順にそれぞれ、30ピクセル、70ピクセル、及び110ピクセルとなっており、7メートル、3メートル、及び1メートルのクレーン間距離を表す。また、図23の出力画像は、現時点におけるクレーン間距離がおよそ5メートルであることを表す。   The output image of FIG. 23 is an output image in which scales are displayed in a superimposed manner, and scales including three horizontal lines indicated by broken lines and the distance between the cranes (meters) corresponding to each horizontal line are displayed in a superimposed manner. The separation distances of these three horizontal lines are 30 pixels, 70 pixels, and 110 pixels, respectively, from the bottom, and represent distances between cranes of 7 meters, 3 meters, and 1 meter. Moreover, the output image of FIG. 23 represents that the distance between cranes at the present time is about 5 meters.

図24及び図25はそれぞれ、特徴の異なる複数の画像を含む出力画像の例を示す図である。   24 and 25 are diagrams each showing an example of an output image including a plurality of images having different characteristics.

図24は、左側に後隣の天井クレーンまでの距離を提示する画像、右側に前隣の天井クレーンまでの距離を提示する画像、上側に仮想的な水平画像、下側に仮想的な見下ろし画像を配置する出力画像を示す。   FIG. 24 is an image that presents the distance to the rear next overhead crane on the left side, an image that presents the distance to the front next overhead crane on the right side, a virtual horizontal image on the upper side, and a virtual looking down image on the lower side. The output image which arrange | positions is shown.

図25は、中央に仮想的な見下ろし画像、上側に前隣の天井クレーンまでの距離を提示する画像、下側に後隣の天井クレーンまでの距離を提示する画像、右側に仮想的な水平画像を配置する出力画像を示す。   FIG. 25 shows a virtual looking-down image at the center, an image that presents the distance to the front overhead crane on the upper side, an image that presents the distance to the rear adjacent crane on the lower side, and a virtual horizontal image on the right side The output image which arrange | positions is shown.

以上の構成により、画像生成システム400は、カメラ23Bの撮像画像に対して複雑な画像処理を施すことなく目盛りを重畳表示するだけで、隣り合う天井クレーンまでの距離を操作者に直感的に把握させることが可能な出力画像を生成することができ、その出力画像を提示することによって、隣り合う天井クレーン同士の接触を防止することができる。   With the above configuration, the image generation system 400 intuitively grasps the distance to the adjacent overhead crane by simply displaying the scales superimposed on the captured image of the camera 23B without performing complicated image processing. The output image which can be made can be produced | generated, and the contact of adjacent overhead cranes can be prevented by showing the output image.

なお、画像生成システム400は、公知の手段により隣の天井クレーンまでの距離が所定距離未満となったことを検出した場合に、アラームや注意喚起メッセージを音声出力したり表示したりするようにしてもよい。   Note that the image generation system 400 outputs or displays an alarm or a warning message when the distance to the adjacent overhead crane is less than a predetermined distance by a known means. Also good.

また、カメラ23Bは、好適には、その光軸が天井クレーン60Aにおけるガーダ63Aのその表面と直交するように設置されるが、その光軸がその表面に対して所定の角度で傾斜するように設置されてもよい。この場合であっても、目盛り描画手段14は、その所定の角度を考慮して(例えば、所定の投影関数を用いて)導き出された、天井クレーン60Aと天井クレーン60Bとの間のクレーン間距離Lメートル(可変値)と、画像中心点CCから所定のマークまでの画素数(可変値)との間の対応関係を記憶するルックアップテーブルを参照し、クレーン間距離とその画素数との複数の組み合わせを読み出し、読み出した情報に基づいて出力画像上に目盛りを重畳表示する。光軸がガーダ63Aの表面と直交するように配置されたカメラ23Bのその光軸に対して傾斜する表面に描かれたマークを用いる場合も同様である。更に、画像生成システム400は、カメラ23Bの光軸に対して傾斜する表面に描かれたその所定のマークがあたかもその光軸に直交する表面に描かれたものとして扱えるよう、カメラ23Bの撮影画像に画像変換を施すようにしてもよい。   The camera 23B is preferably installed so that its optical axis is orthogonal to the surface of the girder 63A in the overhead crane 60A, but the optical axis is inclined at a predetermined angle with respect to the surface. It may be installed. Even in this case, the scale drawing unit 14 takes into account the predetermined angle (for example, using a predetermined projection function), and the distance between the cranes between the overhead crane 60A and the overhead crane 60B is derived. A lookup table that stores the correspondence between the L meter (variable value) and the number of pixels from the image center point CC to a predetermined mark (variable value), and a plurality of the distance between the cranes and the number of pixels And a scale is superimposed and displayed on the output image based on the read information. The same applies to the case where a mark drawn on the surface inclined with respect to the optical axis of the camera 23B arranged so that the optical axis is orthogonal to the surface of the girder 63A. Further, the image generation system 400 can take a photographed image of the camera 23B so that the predetermined mark drawn on the surface inclined with respect to the optical axis of the camera 23B can be handled as if it were drawn on the surface orthogonal to the optical axis. You may make it perform image conversion to.

なお、上述の目盛り描画処理は、カメラ23Bの撮像画像を参照しながら説明されたが、カメラ24Bに対しても同様の説明が適用されるものとする。   The scale drawing process described above has been described with reference to an image captured by the camera 23B, but the same description applies to the camera 24B.

以上、本発明の好ましい実施例について詳説したが、本発明は、上述した実施例に制限されることはなく、本発明の範囲を逸脱することなしに上述した実施例に種々の変形及び置換を加えることができる。   Although the preferred embodiments of the present invention have been described in detail above, the present invention is not limited to the above-described embodiments, and various modifications and substitutions can be made to the above-described embodiments without departing from the scope of the present invention. Can be added.

例えば、上述の実施例において、画像生成システム100は、空間モデルMDを用いることなく(カメラ2の光学中心Cの座標と仮想カメラ2Vの光学中心CVの座標とを用いながら空間モデルMDを介して入力画像平面R4上の画素群と出力画像平面R5上の画素群とを間接的に関連付けることなく)、カメラ2の光学中心Cの座標や仮想カメラ2Vの光学中心CVの座標とは無関係に、入力画像平面R4上の画素群と出力画像平面R5上の画素群との間の所定の直接的な対応関係に基づいて出力画像を生成するようにしてもよい。   For example, in the above-described embodiment, the image generation system 100 does not use the spatial model MD (via the spatial model MD while using the coordinates of the optical center C of the camera 2 and the coordinates of the optical center CV of the virtual camera 2V). Without indirectly associating the pixel group on the input image plane R4 and the pixel group on the output image plane R5), regardless of the coordinates of the optical center CV of the camera 2 and the coordinates of the optical center CV of the virtual camera 2V, The output image may be generated based on a predetermined direct correspondence between the pixel group on the input image plane R4 and the pixel group on the output image plane R5.

この場合、画像生成システム100は、その所定の直接的な対応関係に基づいて、入力画像平面R4上の画素群の一部を出力画像平面R5上の画素群の一部に(空間モデルMDを介することなく直接的に)関連付けてフック69の仮想的な水平画像を生成し、入力画像平面R4上の画素群の別の一部を出力画像平面R5上の画素群の別の一部に(空間モデルMDを介することなく直接的に)関連付けて床面FFの仮想的な見下ろし画像を生成し、その仮想的な水平画像とその仮想的な見下ろし画像とを合成して最終的な出力画像を生成するようにしてもよい。   In this case, the image generation system 100 converts a part of the pixel group on the input image plane R4 to a part of the pixel group on the output image plane R5 based on the predetermined direct correspondence (the spatial model MD is To generate a virtual horizontal image of the hook 69 by associating directly with another part of the pixel group on the input image plane R4 to another part of the pixel group on the output image plane R5 ( A virtual look-down image of the floor FF is generated by associating directly (without going through the space model MD), and the final output image is synthesized by synthesizing the virtual horizontal image and the virtual look-down image. You may make it produce | generate.

また、カメラ2は、図2で示されるように、トロリ66から鉛直下方に延びた後X軸方向に延びるブラケットBRの先端に取り付けられ、それに合わせて空間モデルMDの垂直面R2が、天井クレーン60のガーダ63の中央線を含む鉛直面VSに配置されるが、カメラ2は、トロリ66からY軸方向に延びるブラケットの先端に取り付けられてもよく、その場合、空間モデルMDの垂直面R2は、天井クレーン60のガーダ63の中央線に直交する鉛直面に配置され得る。なお、垂直面R2は、必ずしもガーダ63の中央線に対し平行又は直交する関係にある必要はなく、その中央線と任意の角度を形成する面であってもよい。更に、カメラ2は、追加的に、ブラケットBRとは別の方向に延びる一又は複数の別のブラケットの先端に取り付けられてもよい。フック69が障害物の裏に隠れて一つのカメラがフック69を撮像することができなくなったとしても、別のカメラが、そのフック69を代わりに撮像することができるようにするためである。   In addition, as shown in FIG. 2, the camera 2 is attached to the tip of a bracket BR that extends vertically downward from the trolley 66 and then extends in the X-axis direction. Although the camera 2 is disposed on the vertical plane VS including the center line of the 60 girders 63, the camera 2 may be attached to the tip of a bracket extending in the Y-axis direction from the trolley 66. May be arranged on a vertical plane perpendicular to the center line of the girder 63 of the overhead crane 60. Note that the vertical surface R2 does not necessarily have a relationship parallel or orthogonal to the center line of the girder 63, and may be a surface that forms an arbitrary angle with the center line. Furthermore, the camera 2 may additionally be attached to the tip of one or a plurality of other brackets extending in a direction different from the bracket BR. This is because even if the hook 69 is hidden behind the obstacle and one camera cannot take an image of the hook 69, another camera can take an image of the hook 69 instead.

また、画像生成システム100は、トロリ66からX軸方向に延びるブラケットBRの先端に取り付けられたカメラ2が撮像した入力画像、及び、トロリ66からY軸方向に延びるブラケットの先端に取り付けられたカメラが撮像した入力画像を含む複数の入力画像を選択的に用いながら出力画像を生成するようにしてもよく、複数の入力画像のそれぞれを用いて複数の出力画像を生成し、それら複数の出力画像のそれぞれを並べて表示するようにしてもよい。   The image generation system 100 also includes an input image captured by the camera 2 attached to the tip of the bracket BR extending from the trolley 66 in the X-axis direction, and a camera attached to the tip of the bracket extending from the trolley 66 in the Y-axis direction. An output image may be generated while selectively using a plurality of input images including the input image captured by the user. A plurality of output images are generated using each of the plurality of input images, and the plurality of output images are generated. These may be displayed side by side.

また、カメラ2は、トロリ66と共に横行し且つ鉛直方向に上下するフック60を鉛直斜め上方から撮像できるよう光軸方向を操作者が動的に調整できるようにしながら、ガーダ63又は操作室70の所定位置に取り付けられていてもよい。この場合、カメラ2は、トロリ66の横行方向(Y軸方向)に沿って所定の間隔を空けながらガーダ63に複数設置され、現時点におけるフック69との間の横行方向(Y軸方向)における距離が最小となるカメラの撮像画像を入力画像として採用するようにしてもよく、それら複数のカメラからの複数の撮像画像を組み合わせた画像を入力画像として採用するようにしてもよい。   Further, the camera 2 allows the operator to dynamically adjust the optical axis direction so that the operator can take an image of the hook 60 traversing with the trolley 66 and moving up and down in the vertical direction from the upper side of the vertical direction. It may be attached at a predetermined position. In this case, a plurality of cameras 2 are installed on the girder 63 at predetermined intervals along the transverse direction (Y-axis direction) of the trolley 66, and the distance in the transverse direction (Y-axis direction) with the hook 69 at the present time. A captured image of a camera that minimizes the image may be adopted as the input image, or an image obtained by combining a plurality of captured images from the plurality of cameras may be employed as the input image.

また、上述の実施例において、画像生成システム100は、天井クレーン60におけるフックの操作を支援するために用いられるが、アンローダのグラブバケットの操作を支援するために用いられてもよく、橋形クレーン、ケーブルクレーン、若しくはテルハのフック、又はスタッカークレーンのフォークの操作を支援するために用いられてもよく、起伏装置や旋回装置を備えたジブクレーンのフックの操作を支援するために用いられてもよい。   In the above-described embodiment, the image generation system 100 is used to support the operation of the hook in the overhead crane 60. However, the image generation system 100 may be used to support the operation of the grab bucket of the unloader. , Cable cranes, or Telha hooks, or stacker crane forks, may be used to assist in operation, and jib crane hooks equipped with hoisting and turning devices may be used to assist in operation .

また、天井クレーン60のフックは、リフティングマグネット、バキュームリフター、クロー、又はスプレッダ等であってもよい。   The hook of the overhead crane 60 may be a lifting magnet, a vacuum lifter, a claw, or a spreader.

また、上述の実施例のそれぞれにおいて個別に説明されたカメラ2、20、21、22、23A〜C、及び24A〜C、並びに、つり具位置検出手段12、凹凸検出手段13、及び目盛り描画手段14は、上述の任意の実施例に任意の組み合わせで導入され得るものとする。   In addition, the cameras 2, 20, 21, 22, 23A to C, and 24A to 24C that are individually described in each of the above-described embodiments, the suspension position detection unit 12, the unevenness detection unit 13, and the scale drawing unit 14 Can be introduced in any combination in any of the above-described embodiments.

1・・・制御部 2・・・カメラ 3・・・入力部 4・・・記憶部 5・・・表示部 10・・・座標対応付け手段 11・・・出力画像生成手段 12・・・つり具位置検出手段 13・・・凹凸検出手段 14・・・目盛り描画手段 20、21、22、23A〜C、24A〜C・・・カメラ 40・・・入力画像・空間モデル対応マップ 41・・・空間モデル・出力画像対応マップ 60、60A〜60C・・・天井クレーン 61・・・ランウェイ 62・・・車輪 63・・・・ガーダ 64・・・ランウェイ 65・・・車輪 66・・・トロリ 67・・・巻上装置 68・・・ワイヤロープ 69・・・フック 70・・・操作室 100、200、300、400・・・画像生成システム   DESCRIPTION OF SYMBOLS 1 ... Control part 2 ... Camera 3 ... Input part 4 ... Memory | storage part 5 ... Display part 10 ... Coordinate matching means 11 ... Output image generation means 12 ... Suspension tool Position detecting means 13 ... Concavity and convexity detecting means 14 ... Scale drawing means 20, 21, 22, 23A to C, 24A to C ... Camera 40 ... Input image / space model correspondence map 41 ... Space Model / output image correspondence map 60, 60A to 60C ... overhead crane 61 ... runway 62 ... wheels 63 ... girder 64 ... runway 65 ... wheels 66 ... trolley 67 ... -Hoisting device 68 ... Wire rope 69 ... Hook 70 ... Operation room 100, 200, 300, 400 ... Image generation system

Claims (5)

つり具の周辺を鉛直斜め上方から見下ろしながら操作するクレーンの操作を支援する画像生成システムであって、
巻上装置が巻き上げ或いは巻き下げる前記つり具を鉛直斜め上方から撮像する撮像装置と、
前記撮像装置が撮像した画像に視点変換処理を施し、前記つり具を水平方向から見た出力画像を生成する出力画像生成手段と、
を備えることを特徴とする画像生成システム。
An image generation system that supports the operation of a crane that operates while looking down from the upper side of a vertical suspension ,
An imaging device for imaging the sling which hoisting device hoisting or lowering wind vertically from obliquely above,
An output image generation unit that performs viewpoint conversion processing on an image captured by the imaging device and generates an output image of the suspension viewed from a horizontal direction;
An image generation system comprising:
クレーンの操作を支援する画像生成システムであって、
巻上装置が巻き上げ或いは巻き下げるつり具を鉛直斜め上方から撮像する撮像装置と、
前記撮像装置が撮像した画像に視点変換処理を施し、前記つり具を水平方向から見た出力画像を生成する出力画像生成手段と、を備え、
前記クレーンは、建屋の壁に沿って走行するガーダと、該ガーダ上を横行するトロリとを有する天井クレーンであり、
前記撮像装置及び前記巻上装置は、前記トロリに取り付けられて該トロリと共に横行する
像生成システム。
An image generation system that supports crane operation,
An image pickup device for picking up a lifting device that the hoisting device winds up or down from vertically above;
An output image generation unit that performs viewpoint conversion processing on an image captured by the imaging device and generates an output image of the suspension viewed from a horizontal direction;
The crane is an overhead crane having a girder that travels along the wall of the building and a trolley that traverses the girder,
The imaging device and the hoisting device are attached to the trolley and traverse along with the trolley .
Images generation system.
クレーンの操作を支援する画像生成システムであって、
巻上装置が巻き上げ或いは巻き下げるつり具を鉛直斜め上方から撮像する撮像装置と、
前記撮像装置が撮像した画像に視点変換処理を施し、前記つり具を水平方向から見た出力画像を生成する出力画像生成手段と、を備え、
前記クレーンは、建屋の壁に沿って走行するガーダと、該ガーダ上を横行するトロリとを有する天井クレーンであり、
前記巻上装置は、前記トロリに取り付けられて該トロリと共に横行し、
前記撮像装置は、前記トロリの横行方向に沿って前記ガーダに複数設置される
像生成システム。
An image generation system that supports crane operation,
An image pickup device for picking up a lifting device that the hoisting device winds up or down from vertically above;
An output image generation unit that performs viewpoint conversion processing on an image captured by the imaging device and generates an output image of the suspension viewed from a horizontal direction;
The crane is an overhead crane having a girder that travels along the wall of the building and a trolley that traverses the girder,
The hoisting device is attached to the trolley and traverses with the trolley,
A plurality of the imaging devices are installed on the girder along the transverse direction of the trolley .
Images generation system.
前記つり具の鉛直位置を検出するつり具位置検出手段を更に備え、
前記出力画像生成手段は、前記つり具の鉛直位置に基づいて、視点変換処理で採用する仮想カメラの光学中心の鉛直位置を決定する、
ことを特徴とする請求項1乃至3の何れか一項に記載の画像生成システム。
Further comprising a suspension position detecting means for detecting a vertical position of the suspension,
The output image generation means determines the vertical position of the optical center of the virtual camera employed in the viewpoint conversion process based on the vertical position of the suspension.
The image generation system according to claim 1, wherein the image generation system is an image generation system.
前記出力画像生成手段は、前記撮像装置が撮像した画像に視点変換処理を施し、前記つり具を水平方向から見た出力画像と、床面を鉛直上方から見た出力画像とを生成する、
ことを特徴とする請求項1乃至3の何れか一項に記載の画像生成システム。
The output image generation means performs a viewpoint conversion process on an image captured by the imaging device, and generates an output image when the suspension is viewed from a horizontal direction and an output image when the floor is viewed from above.
Image generation system according to any one of claims 1 to 3, characterized in that.
JP2010172991A 2010-07-30 2010-07-30 Image generation system Active JP5575571B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010172991A JP5575571B2 (en) 2010-07-30 2010-07-30 Image generation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010172991A JP5575571B2 (en) 2010-07-30 2010-07-30 Image generation system

Publications (2)

Publication Number Publication Date
JP2012030948A JP2012030948A (en) 2012-02-16
JP5575571B2 true JP5575571B2 (en) 2014-08-20

Family

ID=45844854

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010172991A Active JP5575571B2 (en) 2010-07-30 2010-07-30 Image generation system

Country Status (1)

Country Link
JP (1) JP5575571B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013159482A (en) * 2012-02-08 2013-08-19 Sumitomo Heavy Ind Ltd Crane system

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5917178B2 (en) * 2012-02-08 2016-05-11 住友重機械工業株式会社 Visual aids
JP6979863B2 (en) * 2017-11-27 2021-12-15 住友重機械搬送システム株式会社 Crane system and image compositing equipment
CN113938648B (en) * 2021-09-13 2023-06-02 杭州大杰智能传动科技有限公司 On-site panoramic video acquisition method for auxiliary operation of tower crane
JP2023136555A (en) * 2022-03-17 2023-09-29 日鉄テックスエンジ株式会社 overhead crane monitoring system
CN115784021B (en) * 2023-02-13 2023-04-07 广东徐工汉云工业互联网有限公司 Tower crane cooperative operation control system, method and device

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS54115855A (en) * 1978-03-01 1979-09-08 Hitachi Ltd Position controller for loader
JPH06312894A (en) * 1993-04-28 1994-11-08 Mitsubishi Heavy Ind Ltd Operating device for crane
JPH08169684A (en) * 1994-12-15 1996-07-02 Dia Kikai Kk Position sensing method for article to be suspended by overhead traveling crane
JP2002274779A (en) * 2001-03-15 2002-09-25 Daido Steel Co Ltd Overhead crane operating device
JP2008312004A (en) * 2007-06-15 2008-12-25 Sanyo Electric Co Ltd Camera system and mechanical apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013159482A (en) * 2012-02-08 2013-08-19 Sumitomo Heavy Ind Ltd Crane system

Also Published As

Publication number Publication date
JP2012030948A (en) 2012-02-16

Similar Documents

Publication Publication Date Title
JP5575571B2 (en) Image generation system
JP6173358B2 (en) Perimeter monitoring device for swivel work machines
JP6029306B2 (en) Perimeter monitoring equipment for work machines
EP3235773B1 (en) Surrounding information-obtaining device for working vehicle
EP2978213B1 (en) Perimeter monitoring device for work machine
JP5876679B2 (en) Performance line display device
JP5595822B2 (en) Image generation system
JP6321977B2 (en) Perimeter monitoring equipment for heavy machinery
JP6017691B2 (en) Information presenting apparatus, crane system and information presenting method
EP2991343B1 (en) Image to be processed generating device, image to be processed generating method, and operation assistance system
JP6045865B2 (en) Excavator
JP5917178B2 (en) Visual aids
CN110915203A (en) Guide information display device and crane
JP6324763B2 (en) crane
JP6740259B2 (en) Work machine
JP6080450B2 (en) Surveillance camera device
JP5575572B2 (en) Image generation system
JP2017147759A (en) Shovel
JP6421451B2 (en) Camera posture detection device
JP5805574B2 (en) Perimeter monitoring equipment for work machines
JP2014062794A (en) Periphery monitoring device for operating machine
JP5844172B2 (en) Crane system
JP2019218198A (en) Operation support system
JP2021075359A (en) Periphery monitoring device for work vehicle having boom
JP5886068B2 (en) Display device for crane

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121012

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140701

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140702

R150 Certificate of patent or registration of utility model

Ref document number: 5575571

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S802 Written request for registration of partial abandonment of right

Free format text: JAPANESE INTERMEDIATE CODE: R311802

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250