JP2003270719A - Projection method, projector, and method and system for supporting work - Google Patents

Projection method, projector, and method and system for supporting work

Info

Publication number
JP2003270719A
JP2003270719A JP2002069119A JP2002069119A JP2003270719A JP 2003270719 A JP2003270719 A JP 2003270719A JP 2002069119 A JP2002069119 A JP 2002069119A JP 2002069119 A JP2002069119 A JP 2002069119A JP 2003270719 A JP2003270719 A JP 2003270719A
Authority
JP
Japan
Prior art keywords
instruction
data
work
image
projector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002069119A
Other languages
Japanese (ja)
Inventor
Shinsaku Hiura
慎作 日浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Osaka Industrial Promotion Organization
Original Assignee
Osaka Industrial Promotion Organization
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Osaka Industrial Promotion Organization filed Critical Osaka Industrial Promotion Organization
Priority to JP2002069119A priority Critical patent/JP2003270719A/en
Publication of JP2003270719A publication Critical patent/JP2003270719A/en
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Projection Apparatus (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a method and a system for supporting work, which enable not only a worker to accurately and easily recognize indications but also an instructor to accurately and easily perform instructing operations though having a simple constitution and do not burden the worker and cope with an object having any depth and are not hindered even in the case of a plurality workers. <P>SOLUTION: Two sets of PCs 1a and 1b, cameras 2a and 2b, and projectors 3a and 3b are installed in a work space wherein the worker performs work of an object M. The three-dimensional shape of the object M is measured by cameras 2a and 2b and projectors 3a and 3b, and a CG image of the object M is displayed on a PC 4 in a remote place wherein the instructor is present. When the instructor uses an input tool to give an instruction related to work of the object M, instruction data is transmitted to PCs 1a and 1b, and an indication image corresponding to instruction data is projected on the object M by the projectors 3a and 3b. <P>COPYRIGHT: (C)2003,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、3次元の物体に画
像を投影する投影方法及び装置、物体に対する作業手順
などの指示を与える作業支援方法及びシステムに関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a projection method and apparatus for projecting an image on a three-dimensional object, and a work support method and system for giving instructions such as a work procedure to the object.

【0002】[0002]

【従来の技術及び発明が解決しようとする課題】画像技
術及び広域通信技術の発展に伴い、物体に作業を行う作
業者に対して作業上の指示を与える手法として種々のも
のが開発されている。
2. Description of the Related Art With the development of image technology and wide area communication technology, various methods have been developed as a method of giving a working instruction to a worker who works on an object. .

【0003】画像を用いて遠隔地から作業者へ指示を与
えるシステムとして、通常のテレビジョン会議をそのま
ま利用したものがある。このシステムでは、作業の場で
ある作業空間の様子を遠隔地にて容易に観察できる。し
かし、作業対象の物体と同一の物体が指示側の遠隔地に
存在しない場合、物体を利用して指示内容を直接説明で
きないため、指示内容は音声,身振り・手振り,図面な
どに頼らざるを得なくなり、的確な指示を出せないとい
う問題がある。
As a system for giving an instruction to a worker from a remote place using an image, there is a system which directly uses a normal television conference. With this system, the state of the work space, which is the place of work, can be easily observed at a remote location. However, if the same object as the work target does not exist in the remote location on the instructing side, the instruction content cannot be directly explained using the object, so the instruction content must rely on voice, gesture / hand gesture, or drawing. There is a problem that it will disappear and it will not be possible to give accurate instructions.

【0004】また、画像による対話システムでありなが
ら、互いの位置関係を分かりやすくした超鏡(Hyper Mi
rror)システムが知られている。このシステムでは、作
業空間での撮影画像と遠隔地での撮影画像とを合成し、
左右反転してスクリーンに投影することにより鏡像を作
成する。遠隔地の指示者が作業空間の背景に入り込んで
いるかのように表示され、指示者は作業対象の実際の物
体に対して指差しなどのような身体動作による指示が可
能である。しかし、作業者はスクリーン上の表示と実際
の物体とを見比べる必要があって、指示の理解が容易で
はなく、また、指示者にとっては、物体に対して直接指
示を出せず、画像を見ながらの指示であるため、指示方
向の微調整が避けられない。
In addition, even though it is a dialogue system using images, it is possible to easily understand the mutual positional relationship with each other (Hyper Mi
rror) system is known. In this system, images taken in the work space and images taken in remote areas are combined,
A mirror image is created by inverting the image horizontally and projecting it on the screen. It is displayed as if the instructor at the remote place is in the background of the work space, and the instructor can give an instruction to the actual object to be worked by a physical action such as pointing. However, the operator needs to compare the display on the screen with the actual object, and it is not easy to understand the instruction. Moreover, the operator cannot give the instruction directly to the object and see the image. Since it is the instruction of, the fine adjustment of the instruction direction cannot be avoided.

【0005】作業者が指示をより直感的に捉えられるよ
うに、実際の物体に対して指示が直接与えられているよ
うに見える、つまりに物体に対する指示が幾何学的に整
合していることが好ましい。このことを満たすための複
合現実感技術として、HMD(Head Mount Display)を
用いるシステム、ハーフミラーを用いるシステムが提案
されている。
In order for the operator to grasp the instruction more intuitively, it seems that the instruction is directly given to the actual object, that is, the instruction to the object is geometrically aligned. preferable. As a mixed reality technology for satisfying this, a system using an HMD (Head Mount Display) and a system using a half mirror have been proposed.

【0006】HMDを用いるシステムでは、頭部の位置
・姿勢による指示範囲の制限がなく、比較的広い作業空
間を対象とできる。しかし、物体と指示画像とを幾何学
的に整合させるために、HMDに位置センサを取り付け
るか、空間中に位置マーカを設ける必要がある。また、
作業者はHMDを装備しなければならず、作業者への負
担が大きい。
In the system using the HMD, there is no limitation on the instruction range depending on the position / posture of the head, and a relatively large work space can be targeted. However, in order to geometrically match the object and the pointing image, it is necessary to attach a position sensor to the HMD or provide a position marker in space. Also,
The worker has to equip the HMD, which places a heavy burden on the worker.

【0007】ハーフミラーを用いるシステムでは、ディ
スプレイに表示された指示像と実際の物体とを光学的に
重畳して作業者が観察するようにしており、簡単な装置
構成であって作業者への負担も少ない。しかし、ハーフ
ミラーの大きさによって視点の位置が拘束されて、複数
の作業者による作業は困難である、ディスプレイ上の平
面像を重畳させるため、奥行きが大きい物体については
対応できないといった問題がある。
In a system using a half mirror, an operator visually observes a pointing image displayed on a display and an actual object so that the operator can observe the object. The burden is also small. However, the position of the viewpoint is restricted by the size of the half mirror, which makes it difficult for a plurality of workers to perform the work. Since the planar images on the display are superimposed, there is a problem that it is not possible to deal with an object having a large depth.

【0008】このように従来のシステムにはそれぞれ固
有の欠点が存在し、何れも満足がいくシステムとはなっ
ておらず、これらの欠点を解消できる新しい作業支援シ
ステムの開発が望まれている。
As described above, each of the conventional systems has its own drawbacks, and none of them are satisfactory systems, and it is desired to develop a new work support system capable of solving these drawbacks.

【0009】本発明は斯かる事情に鑑みてなされたもの
であり、従来のシステムの欠点を解消して、簡易な構成
であっても作業者における指示の認識及び指示者におけ
る指示動作が正確かつ容易であり、作業者への負担がな
く、如何なる奥行きの物体にも対応でき、複数の作業者
でも支障がない投影方法及び投影装置並びに作業支援方
法及び作業支援システムを提供することを目的とする。
The present invention has been made in view of the above circumstances, and eliminates the drawbacks of the conventional system, and the operator recognizes an instruction and the instruction operation by the instructor is accurate and accurate even with a simple structure. An object of the present invention is to provide a projection method, a projection device, a work support method, and a work support system that are easy, do not impose a burden on workers, can handle objects of any depth, and that do not hinder a plurality of workers. .

【0010】[0010]

【課題を解決するための手段】第1発明に係る投影方法
は、物体の3次元形状を計測し、計測した3次元の形状
データに基づいて投影用の画像データを生成し、生成し
た画像データに応じた画像を前記物体に投影することを
特徴とする。
A projection method according to the first invention measures a three-dimensional shape of an object, generates image data for projection based on the measured three-dimensional shape data, and generates the generated image data. Is projected onto the object.

【0011】第2発明に係る投影装置は、物体の3次元
形状を計測する手段と、計測した3次元の形状データに
基づいて投影用の画像データを生成する手段と、生成し
た画像データに応じた画像を前記物体に投影する手段と
を備えることを特徴とする。
A projection apparatus according to a second aspect of the present invention, means for measuring the three-dimensional shape of an object, means for generating image data for projection based on the measured three-dimensional shape data, and a means for generating the image data. Means for projecting the captured image onto the object.

【0012】第1,第2発明では、物体の3次元形状を
計測し、その3次元の形状データに基づいて物体に画像
を投影する。このように物体の3次元の形状情報を利用
することにより、3次元物体であってもその形状に対応
して正確な画像表示を行える。
In the first and second inventions, the three-dimensional shape of the object is measured, and the image is projected on the object based on the three-dimensional shape data. By using the three-dimensional shape information of the object in this way, an accurate image display can be performed corresponding to the shape of the three-dimensional object.

【0013】第3発明に係る作業支援方法は、物体に対
する作業を支援する方法において、前記物体の3次元形
状を計測し、計測した形状データに基づき前記作業に関
する指示を表す指示データを生成し、生成した指示デー
タに応じた画像を前記物体に投影することを特徴とす
る。
A work support method according to a third aspect of the present invention is a method for supporting work on an object, wherein a three-dimensional shape of the object is measured, and instruction data representing an instruction regarding the work is generated based on the measured shape data. An image according to the generated instruction data is projected on the object.

【0014】第6発明に係る作業支援システムは、物体
に対する作業を支援するシステムにおいて、前記物体の
3次元形状を計測する手段と、計測した形状データに基
づき前記作業に関する指示を表す指示データを生成する
手段と、生成した指示データに応じた画像を前記物体に
投影する手段とを備えることを特徴とする。
A work support system according to a sixth aspect of the present invention is a system for supporting work on an object, wherein means for measuring a three-dimensional shape of the object and instruction data representing an instruction for the work are generated based on the measured shape data. And a means for projecting an image corresponding to the generated instruction data onto the object.

【0015】第3,第6発明では、物体に対して作業者
が作業を行っている場合に、その作業に必要な画像をそ
の作業対象の物体に直接投影して表示する。つまり、ま
ず作業対象の物体の3次元形状を計測し、計測した形状
データに基づき作業に関する指示を表す指示データを生
成し、生成した指示データに応じた画像を物体に投影す
る。よって、物体に直接的に作業指示が示されるので、
作業者は容易かつ正確に指示内容を確認できる。また、
作業者に特別の装備は不要であって、作業者への負担も
ない。
In the third and sixth inventions, when a worker is working on an object, an image required for the work is directly projected and displayed on the object to be worked. That is, first, the three-dimensional shape of the work target object is measured, instruction data representing an instruction regarding work is generated based on the measured shape data, and an image corresponding to the generated instruction data is projected on the object. Therefore, since the work instruction is directly displayed on the object,
The operator can easily and accurately confirm the instruction content. Also,
No special equipment is required for the worker, and there is no burden on the worker.

【0016】第4発明に係る作業支援方法は、物体の作
業場に設けられた1または複数組のカメラ及びプロジェ
クタを用いて前記物体に対する作業を支援する方法にお
いて、前記プロジェクタから光を前記物体に光を投射し
て前記カメラで前記物体の画像を前記カメラにて取得
し、取得した前記物体の画像から前記物体の3次元形状
を計測し、計測した形状データに基づき前記作業に関す
る指示を表す指示データを生成し、生成した指示データ
に応じた画像を前記物体に投影すべく前記プロジェクタ
を制御することを特徴とする。
A work support method according to a fourth aspect of the present invention is a method for supporting work on an object using one or a plurality of sets of cameras and projectors provided in a work space of the object, wherein light is emitted from the projector to the object. Is projected and the image of the object is acquired by the camera, the three-dimensional shape of the object is measured from the acquired image of the object, and instruction data indicating an instruction regarding the work based on the measured shape data. Is generated, and the projector is controlled to project an image corresponding to the generated instruction data on the object.

【0017】第7発明に係る作業支援システムは、物体
に対する作業を支援するシステムにおいて、1または複
数組のカメラ及びプロジェクタと、前記物体に前記プロ
ジェクタから光を投射して前記カメラで撮影された前記
物体の画像から前記物体の3次元形状を計測する計測手
段と、計測した形状データに基づき前記作業に関する指
示を表す指示データを生成する生成手段と、生成した指
示データに応じた画像を前記物体に投影すべく前記プロ
ジェクタを制御する制御手段とを備えることを特徴とす
る。
A work support system according to a seventh aspect of the present invention is a system for supporting work on an object, wherein one or a plurality of sets of cameras and projectors, and light projected from the projector onto the object are photographed by the camera. Measuring means for measuring the three-dimensional shape of the object from the image of the object, generating means for generating instruction data indicating an instruction regarding the work based on the measured shape data, and an image corresponding to the generated instruction data for the object. Control means for controlling the projector to project.

【0018】第4,第7発明では、作業者が物体に対し
て作業を行う場所(作業空間)に設置されたカメラとプ
ロジェクタとを用いて、物体の3次元形状を計測し、計
測した形状データに基づき作業に関する指示を表す指示
データを生成し、生成した指示データに応じた画像をプ
ロジェクタにより物体に投影する。よって、プロジェク
タから物体に直接的に作業指示が投影されるので、作業
者は容易かつ正確に指示内容を確認できる。また、作業
者に特別の装備は不要であって、作業者への負担もな
い。
In the fourth and seventh inventions, the three-dimensional shape of the object is measured by using the camera and the projector installed in the place (work space) where the worker works on the object, and the measured shape is measured. Instruction data representing an instruction regarding work is generated based on the data, and an image corresponding to the generated instruction data is projected on the object by the projector. Therefore, since the work instruction is directly projected from the projector onto the object, the operator can easily and accurately confirm the instruction content. In addition, no special equipment is required for the worker, and there is no burden on the worker.

【0019】第5発明に係る作業支援方法は、第4発明
において、前記指示を2次元座標にて入力し、入力した
前記指示を3次元座標に変換して前記指示データを生成
し、生成した3次元座標での前記指示データを前記プロ
ジェクタ用の2次元座標に変換することを特徴とする。
In the work support method according to the fifth aspect of the present invention, in the fourth aspect, the instruction is input in two-dimensional coordinates, the input instruction is converted into three-dimensional coordinates, and the instruction data is generated. The instruction data in three-dimensional coordinates is converted into two-dimensional coordinates for the projector.

【0020】第8発明に係る作業支援システムは、第7
発明において、前記生成手段は、2次元座標での前記指
示の入力を受け付ける手段と、入力された2次元座標で
の前記指示を3次元座標に変換して前記指示データを生
成する手段とを有し、前記制御手段は、生成した3次元
座標での前記指示データを前記プロジェクタ用の2次元
座標に変換する手段を有することを特徴とする。
A work support system according to an eighth aspect of the present invention is the seventh aspect.
In the invention, the generating means has means for receiving an input of the instruction in two-dimensional coordinates, and means for converting the instruction in the input two-dimensional coordinates into three-dimensional coordinates to generate the instruction data. However, the control means has means for converting the generated instruction data in three-dimensional coordinates into two-dimensional coordinates for the projector.

【0021】第5,第8発明では、指示が2次元座標に
て入力され、その2次元座標での指示を一旦3次元座標
に変換して指示データを生成し、生成した3次元座標で
の指示データをプロジェクタ用の2次元座標に変換す
る。よって、マウスを用いて指示の入力を簡便に行える
と共に、プロジェクタを用いて正確な投影を実現でき
る。
In the fifth and eighth inventions, an instruction is input in two-dimensional coordinates, the instruction in the two-dimensional coordinates is once converted into three-dimensional coordinates to generate instruction data, and the generated three-dimensional coordinates are generated. The instruction data is converted into two-dimensional coordinates for the projector. Therefore, it is possible to easily input an instruction using the mouse, and it is possible to realize accurate projection using the projector.

【0022】第9発明に係る作業支援システムは、第7
または第8発明において、前記計測手段と前記生成手
段、及び、前記生成手段と前記制御手段とを接続するデ
ータ通信回線を更に備えることを特徴とする。
A work support system according to a ninth aspect of the present invention is the seventh aspect.
Alternatively, the eighth invention is characterized by further comprising a data communication line connecting the measuring means and the generating means, and the generating means and the control means.

【0023】第9発明では、作業の指示を行う指示者が
存在する場所が作業空間から遠く離れている場合に、以
下のようにして処理を行う。まず、作業空間に設置され
たカメラとプロジェクタとを用いて、物体の3次元形状
を計測し、取得した物体の画像と距離データとを指示者
が存在する遠隔地へデータ通信回線を介して送信する。
遠隔地では、これらの送信データに基づいて物体の画像
を表示し、その表示画像に対して作業に関する指示を表
す指示データを生成する。生成した指示データはデータ
通信回線を介して作業空間に送られ、指示データに応じ
た画像がプロジェクタにより物体に投影される。よっ
て、遠隔地からでも作業上の適切な指示を容易に行え
る。
According to the ninth aspect of the invention, when the place where the instructor who gives the work instruction is present is far away from the work space, the processing is performed as follows. First, a camera and a projector installed in a work space are used to measure a three-dimensional shape of an object, and the acquired image of the object and distance data are transmitted to a remote place where an instructor exists through a data communication line. To do.
At a remote location, an image of an object is displayed based on these transmission data, and instruction data representing an instruction regarding work is generated for the displayed image. The generated instruction data is sent to the work space via the data communication line, and the image corresponding to the instruction data is projected on the object by the projector. Therefore, it is possible to easily give an appropriate work instruction even from a remote place.

【0024】第10発明に係る作業支援システムは、第
7〜第9発明の何れかにおいて、前記カメラ及びプロジ
ェクタは複数組存在し、前記画像を前記物体に投影する
際に、複数のプロジェクタ夫々から異なる色の投影光を
出射させるようにしてあることを特徴とする。
A work support system according to a tenth invention is the work support system according to any one of the seventh to ninth inventions, wherein a plurality of sets of the camera and the projector are present, and when the image is projected onto the object, the projectors respectively project from the plurality of projectors. It is characterized in that projection lights of different colors are emitted.

【0025】第10発明では、複数のプロジェクタ夫々
からの異なる色の光による投影により、それらの投影光
が混在する部分を指示位置として容易かつ明確に指示で
きる。
According to the tenth aspect of the invention, by projecting light of different colors from each of the plurality of projectors, it is possible to easily and clearly designate the portion where the projection lights are mixed as the designated position.

【0026】第11発明に係る作業支援方法は、形状が
既知である物体の位置決め作業を支援する方法におい
て、前記物体の形状に基づいて投影用の画像データを生
成し、生成した画像データに応じた画像を、前記物体を
位置決めすべき実空間の位置に投影することを特徴とす
る。
A work support method according to an eleventh aspect of the present invention is a method for supporting positioning work of an object having a known shape, wherein image data for projection is generated based on the shape of the object, and the generated image data is generated according to the generated image data. The projected image is projected at a position in the real space where the object is to be positioned.

【0027】第12発明に係る作業支援システムは、形
状が既知である物体の位置決め作業を支援するシステム
において、前記物体の形状に基づいて投影用の画像デー
タを生成する手段と、生成した画像データに応じた画像
を、前記物体を位置決めすべき実空間の位置に投影する
手段とを備えることを特徴とする。
The work support system according to the twelfth invention is a system for supporting the positioning work of an object whose shape is already known, and means for generating image data for projection based on the shape of the object, and the generated image data. And a means for projecting an image corresponding to the above into a position in the real space where the object is to be positioned.

【0028】第11,第12発明では、形状が既知であ
る物体の位置決め作業を作業者が行う場合に、その物体
を位置決めすべき実空間の位置にその物体の画像を投影
する。よって、作業者は指示される位置を容易かつ正確
に確認できるため、物体の正しい位置合わせを簡単に行
える。
In the eleventh and twelfth aspects of the invention, when the operator performs the positioning work of the object whose shape is known, the image of the object is projected at the position of the real space where the object should be positioned. Therefore, the operator can easily and accurately confirm the instructed position, and the correct alignment of the object can be easily performed.

【0029】[0029]

【発明の実施の形態】以下、本発明をその実施の形態を
示す図面に基づいて具体的に説明する。図1は、本発明
の作業支援システムの構成を示す図である。作業者が物
体Mに対して作業を行う場所(作業空間)には、2台の
パーソナルコンピュータ(以下、PCという)1a,1
bが設けられている。各PC1a,1bそれぞれには、
各撮影面及び各投影面を物体Mに向けて、カメラ2aと
プロジェクタ3a,カメラ2bとプロジェクタ3bが接
続されている。同一のPC1a(1b)に接続されたカ
メラ2a及びプロジェクタ3a(カメラ2b及びプロジ
ェクタ3b)は、その1セットを用いて三角測量法に基
づく形状計測を行うため、カメラ2a(2b)の撮影範
囲とプロジェクタ3a(3b)の投影範囲とが重なり合
うように、適切な基線長だけ離して設置されている。な
お、これらのカメラ2a,2b及びプロジェクタ3a,
3bの設置位置は固定されている。
BEST MODE FOR CARRYING OUT THE INVENTION The present invention will be specifically described below with reference to the drawings showing the embodiments thereof. FIG. 1 is a diagram showing a configuration of a work support system of the present invention. Two personal computers (hereinafter referred to as PCs) 1a, 1 are installed in a place (work space) where the worker works on the object M.
b is provided. For each PC 1a, 1b,
The camera 2a and the projector 3a, and the camera 2b and the projector 3b are connected so that the respective photographing surfaces and the respective projection surfaces face the object M. Since the camera 2a and the projector 3a (camera 2b and projector 3b) connected to the same PC 1a (1b) perform shape measurement based on the triangulation method using the one set, the camera 2a (2b) has an image capturing range. The projectors 3a (3b) are installed so as to be overlapped with the projection range of the projector 3a (3b) by an appropriate baseline length. The cameras 2a and 2b and the projector 3a,
The installation position of 3b is fixed.

【0030】一方、物体Mの作業に関する指示を行う指
示者が存在する場所(遠隔地)には、PC4が設けられ
ており、作業空間(作業者側)のPC1a,1bと遠隔
地(指示者側)のPC4との間で、データ通信回線5を
介した種々のデータの送受信を行えるようになってい
る。
On the other hand, a PC 4 is provided in a place (remote location) where an instructor who gives an instruction regarding the work of the object M exists, and PCs 1a and 1b in the work space (worker side) and a remote location (instructor). Various data can be transmitted / received to / from the PC 4 (on the side) via the data communication line 5.

【0031】図2は、PC1a,1bの機能ブロック図
であり、各PC1a,1bは、CPU11,カメラ制御
部12,プロジェクタ制御部13,通信インタフェース
部14,ROM15,RAM16などを備えている。C
PU11は、バスを17を介して上述したようなこれら
のハードウェア各部と接続されていて、ROM15に格
納されたプログラムに従って、それらを制御すると共
に、種々のソフトウェアの機能を実行する。
FIG. 2 is a functional block diagram of the PCs 1a and 1b. Each of the PCs 1a and 1b includes a CPU 11, a camera control unit 12, a projector control unit 13, a communication interface unit 14, a ROM 15, a RAM 16 and the like. C
The PU 11 is connected to each of these hardware units as described above via a bus 17, and controls them according to a program stored in the ROM 15 and executes various software functions.

【0032】カメラ制御部12は、カメラ2a,2bが
撮影した物体Mの画像データを取得する。プロジェクタ
制御部13は、プロジェクタ3a,3bから物体Mに投
射される光を制御する。通信インタフェース部14は、
データ通信回線5を介してPC4と接続されており、P
C4との間でデータ(物体Mの撮影画像データ及び距離
データ,作業用の指示データなど)のやりとりを行う。
ROM15は、後述するキャリブレーション処理,3次
元形状の計測処理,指示データの投影処理などの動作に
必要な種々のソフトウェアのプログラムを予め格納して
いる。RAM16はSRAMまたはフラッシュメモリ等
の構成され、ソフトウェアの実行時に発生する一時的な
データを記憶する。
The camera control section 12 acquires image data of the object M photographed by the cameras 2a and 2b. The projector control unit 13 controls the light projected on the object M from the projectors 3a and 3b. The communication interface unit 14 is
It is connected to the PC 4 via the data communication line 5,
Data (photographed image data and distance data of the object M, instruction data for work, etc.) is exchanged with C4.
The ROM 15 stores in advance various software programs necessary for operations such as calibration processing, three-dimensional shape measurement processing, and instruction data projection processing, which will be described later. The RAM 16 is configured by SRAM, flash memory, or the like, and stores temporary data generated when software is executed.

【0033】図3は、PC4の機能ブロック図であり、
PC4は、CPU21,ディスプレイ22,マウス2
3,キーボード24,指示データ生成部25,通信イン
タフェース部26などを備えている。CPU21は、バ
スを26を介して上述したようなこれらのハードウェア
各部と接続されていて、それらを制御する。
FIG. 3 is a functional block diagram of the PC 4.
The PC 4 has a CPU 21, a display 22, and a mouse 2.
3, a keyboard 24, an instruction data generation unit 25, a communication interface unit 26, etc. are provided. The CPU 21 is connected to each of these hardware units as described above via the bus 26 and controls them.

【0034】ディスプレイ22は、PC1a,1bから
送られてきたデータに基づいて物体Mを表示する。マウ
ス23及びキーボード24は、指示者からの作業に関す
る指示を受け付ける。指示データ生成部25は、指示者
による入力指示に基づいて、作業用の指示データを生成
する。通信インタフェース部26は、データ通信回線5
を介してPC1a,1bと接続されており、PC1a,
1bとの間でデータのやりとりを行う。
The display 22 displays the object M based on the data sent from the PCs 1a and 1b. The mouse 23 and the keyboard 24 receive instructions regarding work from the instructor. The instruction data generation unit 25 generates work instruction data based on the input instruction from the instructor. The communication interface unit 26 uses the data communication line 5
Is connected to the PCs 1a and 1b via
Data is exchanged with 1b.

【0035】次に、本発明の作業支援システムの動作に
ついて説明する。図4は、この動作の概略を示す図であ
る。
Next, the operation of the work support system of the present invention will be described. FIG. 4 is a diagram showing an outline of this operation.

【0036】まず、作業空間では、基準の物体を用い
て、カメラ2a,2b及びプロジェクタ3a,3bのキ
ャリブレーションを実施する。そして、キャリブレーシ
ョンを完了したカメラ2a,2b及びプロジェクタ3
a,3bを用いて、作業対象の物体Mの3次元形状を計
測する。この3次元形状計測にて得られた静止カラー画
像と距離データとが、遠隔地のPC4へ送信される。
First, in the working space, the cameras 2a and 2b and the projectors 3a and 3b are calibrated using a reference object. Then, the cameras 2a and 2b and the projector 3 that have completed the calibration
The three-dimensional shape of the work target object M is measured using a and 3b. The still color image and the distance data obtained by this three-dimensional shape measurement are transmitted to the PC 4 at a remote place.

【0037】PC4は、これらの静止カラー画像と距離
データとに基づいて物体MのCG(コンピュータグラフ
ィックス)を生成してディスプレイ22に表示する。な
お、作業の様子を実時間的に把握するために、カメラ2
a,2bで撮影された物体Mの動画像もディスプレイ2
2に表示される。指示者は、マウス23,キーボード2
4を用いて、ディスプレイ22上のGUI(グラフィカ
ルユーザインタフェース)操作により作業に関する指示
を行う。この入力指示に従って指示データが指示データ
生成部25にて生成され、生成した指示データが作業空
間のPC1a,1bへ送信される。
The PC 4 generates a CG (computer graphics) of the object M on the basis of the still color image and the distance data and displays it on the display 22. In addition, in order to grasp the state of work in real time, the camera 2
The moving image of the object M captured in a and 2b is also displayed on the display 2
It is displayed in 2. The instructor is a mouse 23, a keyboard 2
4 is used to give an instruction regarding work by a GUI (graphical user interface) operation on the display 22. The instruction data is generated by the instruction data generation unit 25 according to this input instruction, and the generated instruction data is transmitted to the PCs 1a and 1b in the work space.

【0038】PC1a,1bは、この指示データから投
影用の画像データをそれぞれ生成し、画像データに応じ
た画像をプロジェクタ3a,3bにより物体Mに投影す
る。作業者は、この投影画像に従って作業を実行する。
The PCs 1a and 1b respectively generate image data for projection from the instruction data, and project images corresponding to the image data onto the object M by the projectors 3a and 3b. The worker performs the work according to this projected image.

【0039】作業者が指示に従って物体Mに対して作業
を行い、物体Mの形状・位置が変化した場合、再び物体
Mの3次元形状計測が行われて、PC4での表示画像が
更新されて、上述した処理が繰り返される。
When the worker works on the object M according to the instruction and the shape and position of the object M change, the three-dimensional shape of the object M is measured again and the display image on the PC 4 is updated. The above process is repeated.

【0040】次に、上述した動作における各処理(キャ
リブレーション処理,3次元形状の計測処理,PC4で
の物体Mの表示処理,指示の入力処理,指示データの投
影処理)の詳細について説明する。
Next, details of each processing (calibration processing, three-dimensional shape measurement processing, display processing of the object M on the PC 4, input processing of instruction, projection processing of instruction data) in the above-described operation will be described.

【0041】(キャリブレーション処理)物体Mの3次
元形状を計測するために、また、プロジェクタ3a,3
bにより投影される指示を対象の物体Mに対して幾何学
的に位置合わせするために、カメラ2a(2b)とプロ
ジェクタ3a(3b)とをキャリブレーションする必要
がある。このキャリブレーション処理は、図5(a)に
示す立方体の基準物体Dを利用する。基準物体Dの各面
にはキャリブレーション用の基準点が描かれている。
(Calibration processing) In order to measure the three-dimensional shape of the object M, the projectors 3a, 3
It is necessary to calibrate the camera 2a (2b) and the projector 3a (3b) in order to geometrically align the instruction projected by b with the target object M. This calibration process uses the cubic reference object D shown in FIG. A reference point for calibration is drawn on each surface of the reference object D.

【0042】まず、カメラ2a(2b)により基準物体
Dを撮影し、得られた画像から基準点の配置を認識する
ことにより、基準点の世界座標(X,Y,Z)とカメラ
2a(2b)での座標(xc ,yc )との組を多数獲得
して、下記(1)に示されるカメラパラメータCを求め
る。ここで、Cは3行4列の透視変換行列である。
First, the reference object D is photographed by the camera 2a (2b), and the arrangement of the reference point is recognized from the obtained image, whereby the world coordinates (X, Y, Z) of the reference point and the camera 2a (2b) are detected. ), A large number of pairs with the coordinates (x c , y c ) are obtained, and the camera parameter C shown in (1) below is obtained. Here, C is a perspective transformation matrix of 3 rows and 4 columns.

【0043】[0043]

【数1】 [Equation 1]

【0044】図5(b)は、基準物体D上の基準点が正
しく認識された様子(各面において向かい合う点同士が
直線で結ばれている)を示している。キャリブレーショ
ンに用いる対応点の組は、これらの直線の交点が用いら
れる。
FIG. 5B shows how the reference points on the reference object D are correctly recognized (points facing each other on each surface are connected by a straight line). The intersection of these straight lines is used as the set of corresponding points used for calibration.

【0045】次に、基準物体Dへプロジェクタ3a(3
b)より縦・横のグレイコードパターン光を投影し、カ
メラ2a(2b)により基準物体Dの画像を取得する。
この画像を解析することにより、プロジェクタ3a(3
b)の各画素(xp ,yp )とカメラ座標(xc
c )との対応関係が得られる。既にカメラ座標
(xc ,yc )と世界座標(X,Y,Z)との関係が求
められているので、これを用いることにより、上記
(1)と同様に下記(2)に示す如く、3行4列のプロ
ジェクタパラメータPが求められる。カメラとプロジェ
クタとは、レンズの焦点面の機能が、「受光して画像を
出力する」と「入力された画像に応じて発光する」とで
異なっているが、光学系と像面との配置は同一であっ
て、両者は同様の数学モデルで取り扱える。
Next, the projector 3a (3
Vertical / horizontal gray code pattern light is projected from b), and an image of the reference object D is acquired by the camera 2a (2b).
By analyzing this image, the projector 3a (3
b) each pixel (x p , y p ) and camera coordinates (x c ,
y c ) is obtained. Since the relationship between the camera coordinates (x c , y c ) and the world coordinates (X, Y, Z) has already been obtained, by using this, as shown in (2) below, as in (1) above. The projector parameter P of 3 rows and 4 columns is obtained. The functions of the focal plane of the lens are different between the camera and the projector: "receive light and output image" and "emit light according to input image", but the arrangement of optical system and image plane Are the same, and both can be treated with the same mathematical model.

【0046】[0046]

【数2】 [Equation 2]

【0047】一般的な3次元計測の場合のように距離デ
ータを求めるだけであれば、基線長の方向により、縦・
横の何れかのグレイコード光を投影して、2行4列の縮
退したプロジェクタパラメータを求めれば十分である。
しかしながら、この場合には、指示画像を投影する際
に、指示を与えたい点の座標(X,Y,Z)に対応した
プロジェクタ座標(xp ,yp )を一意に決定できな
い。そこで、本発明では、上記(2)のようにプロジェ
クタ3a(3b)についてもカメラ2a(2b)と同形
式のキャリブレーションを行っている。
If only distance data is obtained as in the case of general three-dimensional measurement, depending on the direction of the baseline length,
It is sufficient to project one of the horizontal gray code lights and obtain the degenerate projector parameters of 2 rows and 4 columns.
However, in this case, when the instruction image is projected, the projector coordinates (x p , y p ) corresponding to the coordinates (X, Y, Z) of the point to be instructed cannot be uniquely determined. Therefore, in the present invention, as in (2) above, the projector 3a (3b) is also calibrated in the same format as the camera 2a (2b).

【0048】なお、本例では、2組のカメラ/プロジェ
クタを設置しているので、それらの間における位置関係
についてもキャリブレーションする必要がある。そこ
で、同一の基準物体Dに対して、それぞれのカメラ2a
(2b)及びプロジェクタ3a(3b)に関してキャリ
ブレーションを行う。
Since two sets of cameras / projectors are installed in this example, it is necessary to calibrate the positional relationship between them. Therefore, for the same reference object D, each camera 2a
(2b) and the projector 3a (3b) are calibrated.

【0049】(3次元形状の計測処理)キャリブレーシ
ョンが完了した後、作業対象の物体Mを作業空間に載置
し、物体Mへプロジェクタ3a(3b)より縦・横のグ
レイコードパターン光を投影し、カメラ2a(2b)に
より物体Mの画像を取得する。そして、上述したパラメ
ータC,Pを用いて、作業対象の物体Mの形状(X,
Y,Z)をカメラ座標(x c ,yc )及びプロジェクタ
座標(xp ,yp )から求める。キャリブレーションを
終了した後は、カメラ2a(2b)及びプロジェクタ3
a(3b)の位置は固定されているため、任意の物体M
の形状を計測できる。
(Three-dimensional shape measurement process) Calibration
After the work is completed, the object M to be worked is placed in the work space.
Then, the object M is moved vertically and horizontally from the projector 3a (3b).
Ray code pattern light is projected to the camera 2a (2b)
The image of the object M is acquired. And the parameters mentioned above
Using the data C and P, the shape (X,
Y, Z) is the camera coordinate (x c, Yc) And projector
Coordinates (xp, Yp) From. Calibration
After the end, the camera 2a (2b) and the projector 3
Since the position of a (3b) is fixed, an arbitrary object M
The shape of can be measured.

【0050】そして、以上のようにして求められた距離
データは、同時にカメラ2a(2b)で撮影された物体
Mのカラー画像と共に、データ通信回線5を介して遠隔
地(指示者側)のPC4へ送信される。
Then, the distance data obtained as described above, together with the color image of the object M photographed by the camera 2a (2b), together with the PC 4 at the remote place (instructor side) via the data communication line 5. Sent to.

【0051】(PC4での物体Mの表示処理)PC4で
は、PC1a,1bから送信された距離データ及びカラ
ー画像に基づいてポリゴンモデルを生成し、物体Mの画
像がディスプレイ22に表示される。カラー画像の各画
素に対応する世界座標が得られているので、それらの色
と座標とを持つ点を頂点としたポリゴンを1枚ずつ描く
ことによりテクスチャ付きのモデルを形成する。2組の
カメラ/プロジェクタで得られたモデルを同時に表示し
ており、計測した2つの面を重ねて表示する。
(Display Processing of Object M on PC4) The PC4 generates a polygon model based on the distance data and the color image transmitted from the PCs 1a and 1b, and the image of the object M is displayed on the display 22. Since the world coordinates corresponding to each pixel of the color image are obtained, a model with texture is formed by drawing each one of the polygons with the points having those colors and coordinates as vertices. The models obtained by two sets of cameras / projectors are simultaneously displayed, and the two measured surfaces are displayed in an overlapping manner.

【0052】指示者は、表示されているCGモデルをマ
ウス23の操作によって自由に回転させることができ、
CGモデルを自由な方向から観察できて物体Mの作業状
態を容易かつ正確に把握できる。なお、動きが激しい作
業である場合には、作業空間で撮影される画像を連続的
に伝送して、動画像をディスプレイ22に表示すること
により、作業の実時間的な把握が可能である。
The instructor can freely rotate the displayed CG model by operating the mouse 23.
The CG model can be observed from any direction, and the working state of the object M can be easily and accurately grasped. In the case of a work with a lot of movement, it is possible to grasp the work in real time by continuously transmitting the images captured in the work space and displaying the moving image on the display 22.

【0053】(指示の入力処理〕指示者は、操作画面の
CG上で所望の部分をマウス23でドラッグすることに
よって指示を与える。図6に、指示者が指示を描画した
例を示す。指示者の指示(矢印,丸印)が作業対象の物
体MのCG上に表示されている。物体M上の正確な位置
に指示を投影するためには、世界座標系における指示を
描くべき3次元座標(X,Y,Z)のデータをPC1
a,1bへ送信する必要がある。マウス座標が2次元座
標であるので、これを世界座標系の3次元座標に変換す
る必要がある。この変換処理は、例えば以下のようにし
て行う。
(Instruction Input Processing) The instructor gives an instruction by dragging a desired portion on the CG of the operation screen with the mouse 23. An example in which the instructor draws an instruction is shown in FIG. The user's instructions (arrows, circles) are displayed on the CG of the work target object M. In order to project the instruction at an accurate position on the object M, the three-dimensional drawing in the world coordinate system should be drawn. Data of coordinates (X, Y, Z) is sent to PC1
It is necessary to send to a and 1b. Since mouse coordinates are two-dimensional coordinates, it is necessary to convert them into three-dimensional coordinates in the world coordinate system. This conversion process is performed as follows, for example.

【0054】CGの各プリミティブの前後関係を矛盾な
く表示するために用いられるメモリ領域であるデプスバ
ッファを使用する。デプスバッファは、描画されるCG
と同じ解像度を有し、各画素はプリミティブまでの奥行
きに対応した値を持っている。まず、マウス23をクリ
ックしたした位置の操作画面上での2次元座標(マウス
座標)を取得する。次に、この座標におけるデプスバッ
ファ値をメモリ領域から読み出す。同様に、透視変換行
列・モデルビュー行列とビューポート変換行列とを取得
する。最後に、マウス座標とデプスバッファ値との組に
対して、これらの行列による変換の逆変換を施すことに
より、マウスでクリックした位置に対応した世界座標を
得ることができる。
A depth buffer, which is a memory area used for displaying the context of each primitive of CG without contradiction, is used. The depth buffer is the CG to be drawn
Has the same resolution as, and each pixel has a value corresponding to the depth to the primitive. First, two-dimensional coordinates (mouse coordinates) on the operation screen at the position where the mouse 23 is clicked are acquired. Next, the depth buffer value at this coordinate is read from the memory area. Similarly, the perspective transformation matrix / model view matrix and the viewport transformation matrix are acquired. Finally, the set of the mouse coordinates and the depth buffer value is subjected to the inverse conversion of the conversion by these matrices, whereby the world coordinates corresponding to the position clicked with the mouse can be obtained.

【0055】マウス23でドラッグされた指示データ
(世界座標系の3次元座標)は、データ通信回線5を介
して作業空間(作業者側)のPC1a,1bへ送信され
る。
The instruction data (three-dimensional coordinates in the world coordinate system) dragged with the mouse 23 is transmitted to the PCs 1a and 1b in the work space (worker side) via the data communication line 5.

【0056】(指示データの投影処理)PC1a,1b
は、送信された指示を物体Mに投影する。図7は、物体
Mへの投影例を示す。指示者が描画した指示(矢印,丸
印:図6参照)が正しく物体Mに投影されている。PC
1a,1bは、まず、PC4から送信された指示データ
(世界座標系の3次元座標)を上記(2)に従ってプロ
ジェクタ座標(2次元座標)に変換し、その変換したプ
ロジェクタ座標に従って指示を示す画像を物体Mに投影
する。このようにして、指示データ(3次元座標)を変
換したプロジェクタ座標(2次元座標)が物体Mの表面
に位置することを保証している。この結果、指示者が操
作画面上で描いた通りの位置に指示が投影される。な
お、この投影処理がPC1a,1bで各別に行われるの
で、その処理時間はプロジェクタの数に依存しない。。
(Projection processing of instruction data) PC 1a, 1b
Projects the transmitted instruction on the object M. FIG. 7 shows an example of projection onto the object M. The instruction drawn by the instructor (arrow, circle: see FIG. 6) is correctly projected on the object M. PC
The images 1a and 1b first convert the instruction data (three-dimensional coordinates in the world coordinate system) transmitted from the PC4 into projector coordinates (two-dimensional coordinates) according to the above (2), and display the instruction according to the converted projector coordinates. Is projected onto the object M. In this way, it is guaranteed that the projector coordinates (two-dimensional coordinates) obtained by converting the instruction data (three-dimensional coordinates) are located on the surface of the object M. As a result, the instruction is projected at the position exactly as drawn by the instructor on the operation screen. Since this projection processing is separately performed by the PCs 1a and 1b, the processing time does not depend on the number of projectors. .

【0057】ところで、2個のプロジェクタ3a,3b
を設置しているので、指示された世界座標系の3次元座
標が、それぞれのプロジェクタ3a,3bから投影可能
な位置であるか否かを判定する必要がある。なぜなら、
図8に示すように、本来投影すべき指示A上の点aが一
方のプロジェクタ3aからのみ投影可能である場合、こ
の点aの3次元座標を他方のプロジェクタ3bのプロジ
ェクタパラメータPを用いて上記(2)に従って変換す
ると、その投影光は物体Mの点bに到達するため、偽の
指示Bが物体Mに投影されることになるからである。よ
って、指示を正確に投影できないプロジェクタについて
は、その投影処理を禁止することにより、誤った指示の
投影を防止している。
By the way, the two projectors 3a and 3b
Since it is installed, it is necessary to determine whether or not the instructed three-dimensional coordinates in the world coordinate system are positions that can be projected by the respective projectors 3a and 3b. Because
As shown in FIG. 8, when the point a on the instruction A to be originally projected can be projected only from one of the projectors 3a, the three-dimensional coordinates of the point a are calculated using the projector parameter P of the other projector 3b. This is because, when the conversion is performed according to (2), the projected light reaches the point b of the object M, so that the false instruction B is projected on the object M. Therefore, for a projector that cannot accurately project an instruction, the projection process is prohibited to prevent incorrect instruction projection.

【0058】なお、両方のプロジェクタ3a,3bから
の正確な投影が可能である場合には、両プロジェクタ3
a,3bを用いて物体Mへの指示の投影を行う。これに
よって、指示の明度を高くできると共に、作業者の体ま
たは手による投影光の遮蔽によって指示像が消えるとい
うことを防止できる。
If accurate projection from both projectors 3a and 3b is possible, then both projectors 3a and 3b
The instruction is projected onto the object M using a and 3b. This makes it possible to increase the brightness of the instruction and prevent the instruction image from disappearing due to the projection light being blocked by the operator's body or hand.

【0059】投影可否の具点的な判定手法は以下の通り
である。まず、遠隔地(指示者側)のPC4から送信さ
れた作業空間での世界座標(X,Y,Z)を、投影すべ
きプロジェクタ3a(3b)と組になっているカメラ2
a(2b)のカメラパラメータCを用いて上記(1)に
従ってカメラ座標(xc ,yc )に変換する。次に、こ
のカメラ2a(2b)/プロジェクタ3a(3b)によ
り計測した距離データから、カメラ座標(xc ,yc
に対応する世界座標(X′,Y′,Z′)を取得する。
そして、この世界座標(X′,Y′,Z′)と指示を投
影すべき世界座標(X,Y,Z)との距離を求め、求め
た距離が閾値以上である場合に、投影すべき点が遮蔽さ
れるので、その点の投影を禁止する。また、距離データ
中の該当する座標に有効な距離値が格納されていない場
合、即ち、カメラ2a(2b)からは可視であるがプロ
ジェクタ3a(3b)からは不可視である、つまり投影
光が到達しない部位または反射率が極端に低い部分が存
在する場合にも、投影を禁止する。このような判定処理
は、PC1a,1bで各別に行われるので、その処理時
間はプロジェクタの数に依存しない。
The concrete method of judging whether or not the projection is possible is as follows. First, the camera 2 in which the world coordinates (X, Y, Z) in the work space transmitted from the PC 4 at the remote location (instructor side) are paired with the projector 3a (3b) to be projected.
Using the camera parameter C of a (2b), it is converted into camera coordinates (x c , y c ) according to the above (1). Next, from the distance data measured by the camera 2a (2b) / projector 3a (3b), the camera coordinates (x c , y c )
The world coordinates (X ', Y', Z ') corresponding to is acquired.
Then, the distance between this world coordinate (X ′, Y ′, Z ′) and the world coordinate (X, Y, Z) at which the instruction should be projected is calculated, and if the calculated distance is equal to or greater than the threshold value, projection should be performed. Since the point is blocked, projection of the point is prohibited. In addition, when a valid distance value is not stored in the corresponding coordinate in the distance data, that is, it is visible from the camera 2a (2b) but invisible from the projector 3a (3b), that is, the projection light reaches it. Projection is also prohibited when there is a portion that is not used or a portion whose reflectance is extremely low. Since such a determination process is separately performed by the PCs 1a and 1b, the processing time does not depend on the number of projectors.

【0060】ここで用いる距離データは1組のカメラ2
a(2b)/プロジェクタ3a(3b)によって計測さ
れたものであるので、その距離データ中の有効な座標は
全てこのカメラ2a(2b)及びプロジェクタ3a(3
b)から可視である。つまり、プロジェクタ3a(3
b)から不可視な点の座標はこの距離データに含まれな
いため、正常な判定を行える。但し、プロジェクタ3a
(3b)からは可視であるが、カメラ2a(2b)から
は不可視である点の投影が禁止されることになるが、そ
のような領域はまれであり、偽の指示の発生を防ぐとい
う観点からは問題がない。
The distance data used here is a set of cameras 2
a (2b) / projector 3a (3b), all valid coordinates in the distance data are measured by this camera 2a (2b) and projector 3a (3).
visible from b). That is, the projector 3a (3
Since the coordinates of the point invisible from b) are not included in this distance data, normal determination can be performed. However, the projector 3a
Although the projection of a point that is visible from (3b) but invisible from the camera 2a (2b) is prohibited, such an area is rare and a point of view for preventing the occurrence of false instructions. From there is no problem.

【0061】判定に用いる閾値は、距離データの計測精
度、特に複数の方位から計測された形状データの差異に
応じて設定する。また、実際には、実数のカメラ座標値
c,yc をそれぞれ切り上げ/切り下げして得られる
周囲4点の整数座標より世界座標(X′,Y′,Z′)
を求めて判定を行い、量子化誤差の影響を小さくしてい
る。
The threshold value used for the determination is set according to the measurement accuracy of the distance data, especially the difference in the shape data measured from a plurality of directions. Actually, the world coordinates (X ', Y', Z ') are calculated from the integer coordinates of four surrounding points obtained by rounding up / down the real camera coordinate values x c , y c , respectively.
Is determined to reduce the influence of the quantization error.

【0062】次に、本発明の作業支援システムの具体例
(台Nに載置されている物体Mを移動させる作業)につ
いて説明する。図9は、遠隔地(指示者側)のPC4の
ディスプレイ22における表示例を示し、図10は、作
業空間での物体Mの投影例を示している。なお、作業空
間において、カメラ2a,2b/プロジェクタ3a,3
bのキャリブレーション処理は完了しているものとす
る。
Next, a specific example of the work support system of the present invention (work for moving the object M placed on the table N) will be described. FIG. 9 shows a display example on the display 22 of the PC 4 at a remote place (instructor side), and FIG. 10 shows a projection example of the object M in the work space. In the working space, the cameras 2a, 2b / projectors 3a, 3
It is assumed that the calibration process of b is completed.

【0063】作業空間において、カメラ2a,2b/プ
ロジェクタ3a,3bにて作業空間に実在している物体
M及び台Nの3次元形状が計測されて、取得した距離デ
ータ及びカラー画像が、PC1a,1bからPC4へ送
信される。PC4のディスプレイ22には、こられのデ
ータに基づく物体MのCG画像が表示される(図9
(a))。
In the working space, the cameras 2a, 2b / projectors 3a, 3b measure the three-dimensional shapes of the object M and the table N that actually exist in the working space, and the acquired distance data and color image are displayed on the PC 1a, It is transmitted from 1b to PC4. A CG image of the object M based on the data is displayed on the display 22 of the PC 4 (FIG. 9).
(A)).

【0064】指示者は、移動を指示したい部分を指定す
る。具体的に、指示者は、CG画像における物体Mの稜
線,テクスチャなどの境界がはっきりしている部分をマ
ウス23によりドラッグする。このドラッグされた部分
が、図9(b)の太線部分Qに表すように、物体Mとは
異なる色で表示される。この指定されたドラッグ軌跡
(マウス座標)は世界座標系の三次元座標に変換され、
指示データとしてPC4からPC1a,1bへ送信され
る。作業空間では、このドラッグ軌跡がプロジェクタ3
a,3bにて物体Mに投影される(図10(a))。
The instructor designates a portion to be instructed to move. Specifically, the instructor uses the mouse 23 to drag a portion of the CG image where the boundaries of the object M, such as the edges and the texture, are clear. The dragged portion is displayed in a color different from that of the object M, as indicated by the thick line portion Q in FIG. 9B. The specified drag locus (mouse coordinates) is converted into three-dimensional coordinates in the world coordinate system,
The instruction data is transmitted from the PC 4 to the PCs 1a and 1b. In the work space, this drag locus is the projector 3
It is projected on the object M at a and 3b (FIG. 10A).

【0065】次いで、指示者は、キーボード24への操
作入力によりその移動量を設定して物体Mの移動先を指
定する。指定された移動先が、図9(c)の太線部分R
に表すように、前記ドラッグ軌跡を移動した形態で表示
される。この際、物体M及び移動先は任意の方向に回転
させて表示することができ(図9(d))、指示者は様
々な方位から移動後の位置を確認できる。よって、指示
者にとって、正確かつ容易に移動先を指定することが可
能となる。
Next, the instructor sets the amount of movement by operating the keyboard 24 and specifies the movement destination of the object M. The designated destination is the thick line portion R in FIG. 9 (c).
As shown in (1), the drag trajectory is displayed in a moved form. At this time, the object M and the movement destination can be rotated in any direction and displayed (FIG. 9D), and the instructor can confirm the position after movement from various directions. Therefore, it becomes possible for the instructor to specify the destination accurately and easily.

【0066】この移動先のデータも、座標変換がなされ
て指示データとしてPC1a,1bへ送信され、その移
動先が物体M及び台Nに投影される(図10(b))。
この際、HMDに両眼視差画像を与えた場合のようには
空中像を呈示できず、投影像は物体M及び台Nに形成さ
れるので、その移動先指示(図10(b)の太線部分
S)は少し歪んで表示されるが、作業者がこの移動先指
示を参照して、物体Mを移動させること(図10
(c))は容易に行える。
The data of this moving destination is also subjected to coordinate conversion and transmitted as instruction data to the PCs 1a and 1b, and the moving destination is projected on the object M and the table N (FIG. 10 (b)).
At this time, the aerial image cannot be presented as in the case where the binocular parallax image is given to the HMD, and the projection image is formed on the object M and the table N, so that the movement destination instruction (the thick line in FIG. 10B) is displayed. The portion S) is displayed with a slight distortion, but the worker can move the object M by referring to the destination instruction (FIG. 10).
(C)) can be easily performed.

【0067】なお、この例では、両方のプロジェクタ3
a,3bからの投影光は何れも遮蔽されることはない
が、プロジェクタ3a,3bの何れもから指示を投影し
た場合に、作業者が指示を混同してしまう虞れがあるの
で、プロジェクタ3a,3bの一方のみから指示を投影
している。
In this example, both projectors 3
None of the projection lights from a and 3b are blocked, but when the instructions are projected from both of the projectors 3a and 3b, the operator may confuse the instructions. , 3b, the instruction is projected.

【0068】次に、本発明の作業支援システムの他の具
体例(既に作業空間において準備されてはいるが作業対
象には加えられていない物体Tを台N上に位置決めする
作業)について説明する。なお、位置決めする物体Tの
CAD(Computer Aided Design)は既知であるとする。
Next, another concrete example of the work support system of the present invention (work for positioning the object T, which is already prepared in the work space but not added to the work target, on the table N) will be described. . The CAD (Computer Aided Design) of the object T to be positioned is known.

【0069】指示者は、台NのCG画像が表示されてい
るディスプレイ22の操作画面に対して、マウス23及
びキーボード24を用いて、物体Tの位置及び形状を指
示する(図11(a))。この指示された位置情報及び
形状情報は座標変換されて指示データとしてPC1a,
1bへ送信される。そして、この指示データに応じてプ
ロジェクタ3a,3bからそれぞれに異なる色の投影光
が出射される(図11(b))。座標変換のパラメータ
として、プロジェクタパラメータPを用いることによ
り、投影される画像は実在の台Nと幾何学的に位置合わ
せされる。
The instructor uses the mouse 23 and the keyboard 24 to instruct the position and shape of the object T on the operation screen of the display 22 on which the CG image of the table N is displayed (FIG. 11A). ). The instructed position information and shape information are coordinate-converted into PC 1a as instruction data,
Sent to 1b. Then, in accordance with this instruction data, the projection lights of different colors are emitted from the projectors 3a and 3b (FIG. 11 (b)). By using the projector parameter P as a parameter for coordinate conversion, the projected image is geometrically aligned with the actual table N.

【0070】上述の例と同様に、プロジェクタ3a,3
bの一方のみから投影しても良いが、2つのプロジェク
タ3a,3bからの投影光を混同しないために、それぞ
れの投影光の色を変えて投影する。図11(b)におい
て、エリアUは一方のプロジェクタ3aからの投影領域
を表し、エリアVは他方のプロジェクタ3bからの投影
領域を表し、それらが重なっているエリアWが物体Tを
載置する領域となる。よって、作業者は、指示される正
しい位置に物体Tを容易に位置決めできて載置すること
ができる(図11(c))。
Similar to the above-mentioned example, the projectors 3a, 3a
Although it is possible to project from only one of b, the projection lights from the two projectors 3a and 3b are not confused with each other, so that the colors of the respective projection lights are changed and projected. In FIG. 11B, an area U represents a projection area from one projector 3a, an area V represents a projection area from the other projector 3b, and an overlapping area W thereof is an area on which the object T is placed. Becomes Therefore, the worker can easily position and place the object T at the correct position instructed (FIG. 11C).

【0071】更に、本発明の作業支援システムは、上述
した具体例以外へも適応可能である。例えば、病院での
手術に本システムを適用する場合、手術室にカメラ/プ
ロジェクタを設置し、手術室から離れている指導医が、
開腹位置の指示または切開露出された患部への指示を自
身のPCにて行い、その指示に基づく画像が患者に投影
されて、手術担当の研修医がこの指示を参考にして手術
を行う。
Furthermore, the work support system of the present invention can be applied to other than the specific examples described above. For example, if this system is applied to surgery in a hospital, a doctor who installs a camera / projector in the operating room,
The abdominal position is instructed or the incision is exposed to the affected area on his / her own PC, an image based on the instruction is projected on the patient, and the surgeon in charge performs surgery with reference to this instruction.

【0072】また、例えば、自動車などの機体を作業者
が多数の部品を用いて組み立てている作業空間にカメラ
/プロジェクタを設置し、遠く離れた場所からその組み
立て手順を指示することにも本発明の作業支援システム
を適応できる。
In addition, for example, a camera / projector is installed in a work space where an operator is assembling a machine body such as an automobile using a large number of parts, and the assembly procedure is instructed from a distant place. Can adapt the work support system.

【0073】なお、上述した例では、カメラ/プロジェ
クタのセット数を2組としたが、そのセット数は1組ま
たは3組以上であっても同様に行える。このセット数を
増やしても、各組毎に1つのPCにて並列的に処理を行
えるので、処理に要する時間が増大することはなく、そ
のセット数を増やすことは容易である。
In the above example, the number of camera / projector sets is two, but the number of sets may be one set or three or more sets. Even if the number of sets is increased, the processing can be performed in parallel by one PC for each set, so that the time required for the processing does not increase and it is easy to increase the number of sets.

【0074】また、上述した例では、作業空間から遠く
離れた遠隔地に存在する指示者が作業空間の作業者に対
して指示を行う場合について説明したが、作業者が存在
する場所と指示者が存在する場所とが近接していても良
いことは勿論である。また、指示者が存在せずに、指示
データが予め準備されており、その指示データが順次作
業空間に送られて、指示データに応じた画像が作業対象
の物体に投影されるようにシステム構成することも可能
である。
Further, in the above-mentioned example, the case has been described where the instructor located at a remote place far from the work space gives an instruction to the worker in the work space. Needless to say, it may be close to the place where is present. In addition, there is no instructor, instruction data is prepared in advance, the instruction data is sequentially sent to the work space, and an image corresponding to the instruction data is projected on the object to be worked. It is also possible to do so.

【0075】また、上述した例では、カメラの位置を固
定としたが、カメラを回転させた際におけるカメラのパ
ラメータを基準物体を用いて事前に算出しておけば、カ
メラを回転可能とすることもできる。
Although the position of the camera is fixed in the above-mentioned example, the camera can be rotated if the parameters of the camera when the camera is rotated are calculated in advance using the reference object. You can also

【0076】また、上述した例では、物体の表面に投影
して位置を指定することとしたが、以下のようにすれば
空中にて位置を指定することも可能である。2つのプロ
ジェクタから投影光を出射させた場合、その投影光が重
なる位置が正しい指示位置となる。よって、2つのプロ
ジェクタから異なる色の投影光を空中に放射してその空
中に物体を持っていった場合、これらの2色の投影光が
重なる位置を作業者は目で確認できるので、空中であっ
ても位置の指定を行える。
Further, in the above-mentioned example, the position is specified by projecting it onto the surface of the object, but the position can be specified in the air as follows. When the projection lights are emitted from the two projectors, the position where the projection lights overlap becomes the correct pointing position. Therefore, when the projection lights of different colors are radiated into the air from two projectors and an object is carried in the air, the operator can visually confirm the position where the projection lights of these two colors overlap each other. You can specify the position even if there is.

【0077】[0077]

【発明の効果】以上詳述した如く、本発明では、物体の
3次元形状を計測し、その3次元の形状データに基づい
て物体に画像を投影するようにしたので、物体の3次元
の形状情報を利用しているため、3次元物体であっても
その形状に対応して正確な画像表示を行うことができ
る。
As described above in detail, in the present invention, the three-dimensional shape of the object is measured and the image is projected on the object based on the three-dimensional shape data. Since information is used, even a three-dimensional object can be displayed accurately in accordance with its shape.

【0078】また、本発明では、作業対象の物体に対し
て作業に必要な画像を直接投影して表示するようにした
ので、簡易な構成であって、従来の作業支援システムに
おける欠点(作業者への高負担、奥行きが大きい物体へ
の対応が困難、複数人による作業には不適など)を解消
でき、作業者における指示の認識及び指示者の指示動作
を正確かつ容易に行うことができる。
Further, in the present invention, the image necessary for the work is directly projected and displayed on the object to be worked, so that the structure is simple and the drawbacks in the conventional work support system (worker It is possible to solve the problems such as high load on the body, difficulty in dealing with an object having a large depth, and unsuitability for work by a plurality of people, and the operator's recognition of the instruction and the instruction operation of the instructor can be performed accurately and easily.

【0079】また、作業空間の画像データを作業空間か
ら指示者が存在する遠隔地へデータ通信回線を介して送
信し、指示者による指示データをデータ通信回線を介し
て作業空間に送信するようにしたので、作業空間から遠
く離れた遠隔地に指示者がいる場合でも、正確な指示と
その指示の正しい認識とを簡便に行うことができる。
Further, the image data of the work space is transmitted from the work space to a remote place where the instructor is present via the data communication line, and the instruction data by the instructor is transmitted to the work space via the data communication line. Therefore, even when the instructor is present at a remote place far away from the work space, it is possible to easily perform an accurate instruction and a correct recognition of the instruction.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の作業支援システムの構成図である。FIG. 1 is a configuration diagram of a work support system of the present invention.

【図2】作業空間(作業者側)に設置したPCの機能ブ
ロック図である。
FIG. 2 is a functional block diagram of a PC installed in a work space (worker side).

【図3】遠隔地(指示者側)に設置したPCの機能ブロ
ック図である。
FIG. 3 is a functional block diagram of a PC installed at a remote place (instructor side).

【図4】本発明の作業支援システムの動作の概略図であ
る。
FIG. 4 is a schematic diagram of the operation of the work support system of the present invention.

【図5】キャリブレーション処理に使用する基準物体を
示す図である。
FIG. 5 is a diagram showing a reference object used in a calibration process.

【図6】指示者が物体のCG像上に指示を描画した例を
示す図である。
FIG. 6 is a diagram showing an example in which an instructor draws an instruction on a CG image of an object.

【図7】指示を物体へ投影した例を示す図である。FIG. 7 is a diagram showing an example in which an instruction is projected on an object.

【図8】物体の裏面への投影による偽の指示の発生を示
す図である。
FIG. 8 is a diagram showing generation of a false instruction by projecting an object on the back surface.

【図9】本発明の具体例における遠隔地(指示者側)に
設置したPCでの表示例を示す図である。
FIG. 9 is a diagram showing a display example on a PC installed at a remote place (instructor side) in a specific example of the present invention.

【図10】本発明の具体例における物体への投影例を示
す図である。
FIG. 10 is a diagram showing an example of projection onto an object in a specific example of the present invention.

【図11】本発明の他の具体例における遠隔地(指示者
側)に設置したPCでの表示例及び物体への投影例を示
す図である。
FIG. 11 is a diagram showing a display example on a PC installed at a remote place (instructor side) and a projection example on an object in another specific example of the present invention.

【符号の説明】[Explanation of symbols]

1a,1b PC 2a,2b カメラ 3a,3b プロジェクタ 4 PC 5 データ通信回線 1a, 1b PC 2a, 2b cameras 3a, 3b projector 4 PC 5 data communication lines

フロントページの続き Fターム(参考) 2F065 AA04 AA53 FF05 JJ03 JJ05 JJ26 2K103 AA22 AA26 AB10 BB05 5B050 AA03 BA04 BA09 BA13 CA07 CA08 DA04 DA07 EA07 EA19 EA24 EA27 EA28 EA30 FA02 FA05 FA09 FA14 5B057 AA04 BA02 CA01 CA08 CA13 CA16 CB01 CB13 CB17 CC04 CD03 CD14 DA07 DA17 DB03 DB06 DB09 DC09 DC22 DC36Continued front page    F term (reference) 2F065 AA04 AA53 FF05 JJ03 JJ05                       JJ26                 2K103 AA22 AA26 AB10 BB05                 5B050 AA03 BA04 BA09 BA13 CA07                       CA08 DA04 DA07 EA07 EA19                       EA24 EA27 EA28 EA30 FA02                       FA05 FA09 FA14                 5B057 AA04 BA02 CA01 CA08 CA13                       CA16 CB01 CB13 CB17 CC04                       CD03 CD14 DA07 DA17 DB03                       DB06 DB09 DC09 DC22 DC36

Claims (12)

【特許請求の範囲】[Claims] 【請求項1】 物体の3次元形状を計測し、計測した3
次元の形状データに基づいて投影用の画像データを生成
し、生成した画像データに応じた画像を前記物体に投影
することを特徴とする投影方法。
1. The three-dimensional shape of an object is measured, and the measured three
A projection method comprising: generating image data for projection based on three-dimensional shape data, and projecting an image corresponding to the generated image data onto the object.
【請求項2】 物体の3次元形状を計測する手段と、計
測した3次元の形状データに基づいて投影用の画像デー
タを生成する手段と、生成した画像データに応じた画像
を前記物体に投影する手段とを備えることを特徴とする
投影装置。
2. A means for measuring a three-dimensional shape of an object, a means for generating image data for projection based on the measured three-dimensional shape data, and an image corresponding to the generated image data is projected on the object. A projection device comprising:
【請求項3】 物体に対する作業を支援する方法におい
て、前記物体の3次元形状を計測し、計測した形状デー
タに基づき前記作業に関する指示を表す指示データを生
成し、生成した指示データに応じた画像を前記物体に投
影することを特徴とする作業支援方法。
3. A method for supporting work on an object, wherein a three-dimensional shape of the object is measured, instruction data representing an instruction regarding the work is generated based on the measured shape data, and an image corresponding to the generated instruction data is generated. A method for supporting work, characterized in that the object is projected onto the object.
【請求項4】 物体の作業場に設けられた1または複数
組のカメラ及びプロジェクタを用いて前記物体に対する
作業を支援する方法において、前記プロジェクタから光
を前記物体に光を投射して前記カメラで前記物体の画像
を前記カメラにて取得し、取得した前記物体の画像から
前記物体の3次元形状を計測し、計測した形状データに
基づき前記作業に関する指示を表す指示データを生成
し、生成した指示データに応じた画像を前記物体に投影
すべく前記プロジェクタを制御することを特徴とする作
業支援方法。
4. A method for assisting work on an object using one or a plurality of sets of cameras and projectors provided in a work space for an object, the method comprising: projecting light from the projector onto the object, An image of an object is acquired by the camera, a three-dimensional shape of the object is measured from the acquired image of the object, instruction data representing an instruction regarding the work is generated based on the measured shape data, and the generated instruction data A method for supporting work, wherein the projector is controlled so as to project an image corresponding to the object onto the object.
【請求項5】 前記指示を2次元座標にて入力し、入力
した前記指示を3次元座標に変換して前記指示データを
生成し、生成した3次元座標での前記指示データを前記
プロジェクタ用の2次元座標に変換する請求項4記載の
作業支援方法。
5. The instruction is input in two-dimensional coordinates, the input instruction is converted into three-dimensional coordinates to generate the instruction data, and the instruction data in the generated three-dimensional coordinates is used for the projector. The work support method according to claim 4, wherein the work support method comprises converting into two-dimensional coordinates.
【請求項6】 物体に対する作業を支援するシステムに
おいて、前記物体の3次元形状を計測する手段と、計測
した形状データに基づき前記作業に関する指示を表す指
示データを生成する手段と、生成した指示データに応じ
た画像を前記物体に投影する手段とを備えることを特徴
とする作業支援システム。
6. A system for supporting work on an object, means for measuring a three-dimensional shape of the object, means for generating instruction data indicating an instruction for the work based on the measured shape data, and the generated instruction data. And a means for projecting an image corresponding to the object onto the object.
【請求項7】 物体に対する作業を支援するシステムに
おいて、1または複数組のカメラ及びプロジェクタと、
前記物体に前記プロジェクタから光を投射して前記カメ
ラで撮影された前記物体の画像から前記物体の3次元形
状を計測する計測手段と、計測した形状データに基づき
前記作業に関する指示を表す指示データを生成する生成
手段と、生成した指示データに応じた画像を前記物体に
投影すべく前記プロジェクタを制御する制御手段とを備
えることを特徴とする作業支援システム。
7. A system for supporting work on an object, comprising one or more sets of cameras and projectors,
Measuring means for projecting light from the projector onto the object to measure the three-dimensional shape of the object from the image of the object captured by the camera; and instruction data representing instructions related to the work based on the measured shape data. A work support system comprising: a generation unit that generates the image, and a control unit that controls the projector to project an image corresponding to the generated instruction data onto the object.
【請求項8】 前記生成手段は、2次元座標での前記指
示の入力を受け付ける手段と、入力された2次元座標で
の前記指示を3次元座標に変換して前記指示データを生
成する手段とを有し、前記制御手段は、生成した3次元
座標での前記指示データを前記プロジェクタ用の2次元
座標に変換する手段を有する請求項7記載の作業支援シ
ステム。
8. The generating means includes means for receiving input of the instruction in two-dimensional coordinates, and means for converting the input instruction in two-dimensional coordinates to three-dimensional coordinates to generate the instruction data. 8. The work support system according to claim 7, further comprising: means for converting the generated instruction data in three-dimensional coordinates into two-dimensional coordinates for the projector.
【請求項9】 前記計測手段と前記生成手段、及び、前
記生成手段と前記制御手段とを接続するデータ通信回線
を更に備える請求項7または8記載の作業支援システ
ム。
9. The work support system according to claim 7, further comprising a data communication line connecting the measuring unit and the generating unit, and the generating unit and the control unit.
【請求項10】 前記カメラ及びプロジェクタは複数組
存在し、前記画像を前記物体に投影する際に、複数のプ
ロジェクタ夫々から異なる色の投影光を出射させるよう
にしてある請求項7〜9の何れかに記載の作業支援シス
テム。
10. A plurality of sets of the camera and the projector are present, and when projecting the image on the object, projection lights of different colors are emitted from each of the plurality of projectors. Work support system described in Crab.
【請求項11】 形状が既知である物体の位置決め作業
を支援する方法において、前記物体の形状に基づいて投
影用の画像データを生成し、生成した画像データに応じ
た画像を、前記物体を位置決めすべき実空間の位置に投
影することを特徴とする作業支援方法。
11. A method for assisting a positioning operation of an object having a known shape, wherein image data for projection is generated based on the shape of the object, and the object is positioned by an image corresponding to the generated image data. A work support method characterized by projecting to a position in a real space to be processed.
【請求項12】 形状が既知である物体の位置決め作業
を支援するシステムにおいて、前記物体の形状に基づい
て投影用の画像データを生成する手段と、生成した画像
データに応じた画像を、前記物体を位置決めすべき実空
間の位置に投影する手段とを備えることを特徴とする作
業支援システム。
12. A system for supporting a positioning operation of an object having a known shape, a means for generating image data for projection based on the shape of the object, and an image corresponding to the generated image data, And a means for projecting to the position of the real space to be positioned.
JP2002069119A 2002-03-13 2002-03-13 Projection method, projector, and method and system for supporting work Pending JP2003270719A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002069119A JP2003270719A (en) 2002-03-13 2002-03-13 Projection method, projector, and method and system for supporting work

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002069119A JP2003270719A (en) 2002-03-13 2002-03-13 Projection method, projector, and method and system for supporting work

Publications (1)

Publication Number Publication Date
JP2003270719A true JP2003270719A (en) 2003-09-25

Family

ID=29200058

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002069119A Pending JP2003270719A (en) 2002-03-13 2002-03-13 Projection method, projector, and method and system for supporting work

Country Status (1)

Country Link
JP (1) JP2003270719A (en)

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004347488A (en) * 2003-05-23 2004-12-09 Mitsubishi Electric Corp Field work support device
JP2006186680A (en) * 2004-12-27 2006-07-13 Fuji Xerox Co Ltd System and method for comment image presentation
JP2006189712A (en) * 2005-01-07 2006-07-20 Nippon Telegr & Teleph Corp <Ntt> Information presenting apparatus, information presenting method and program
JP2006259627A (en) * 2005-03-18 2006-09-28 Nippon Telegr & Teleph Corp <Ntt> Image processor, image processing method and program
JP2007042073A (en) * 2005-07-01 2007-02-15 Canon Inc Video presentation system, video presentation method, program for causing computer to execute video presentation method and storage medium
JP2007198870A (en) * 2006-01-26 2007-08-09 Fuji Xerox Co Ltd Remote indication system and remote indication method
JP2007208741A (en) * 2006-02-02 2007-08-16 Fuji Xerox Co Ltd Remote indication system and method
JP2007226765A (en) * 2006-01-26 2007-09-06 Fuji Xerox Co Ltd Instruction device, instruction system, instruction method and instruction program
JP2007293717A (en) * 2006-04-26 2007-11-08 Nippon Telegr & Teleph Corp <Ntt> Position data converter and position data conversion method
JP2009175060A (en) * 2008-01-25 2009-08-06 Fuji Xerox Co Ltd Indication system, indication program, and indicator
WO2009098803A1 (en) * 2008-02-08 2009-08-13 Dainippon Screen Mfg.Co., Ltd. Image information generation device and image information generation method
JP2010117691A (en) * 2008-11-14 2010-05-27 Fuji Xerox Co Ltd Information processor, information processing system, and program
JP2010540970A (en) * 2007-10-05 2010-12-24 アーテック・グループ・インコーポレーテッド Integrated object capturing system, display device, and related method
JP2012002564A (en) * 2010-06-15 2012-01-05 Seiko Epson Corp Three-dimensional shape measuring device, calibration method for three-dimensional shape measuring device and robot device
JP2013090109A (en) * 2011-10-17 2013-05-13 Canon Inc Information processing system, information processing apparatus, method for controlling the system and apparatus, and program
JP2013151044A (en) * 2012-01-25 2013-08-08 Hirata Corp Work support device
JP2015103891A (en) * 2013-11-22 2015-06-04 株式会社リコー Image projection system, image processing apparatus, image projection method and program
WO2015133053A1 (en) * 2014-03-06 2015-09-11 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Measurement system, measurement method, and vision chip
JP2015219679A (en) * 2014-05-16 2015-12-07 株式会社リコー Image processing system, information processing device, and program
JP2016509394A (en) * 2012-12-28 2016-03-24 メタイオ ゲゼルシャフト ミット ベシュレンクテル ハフツングmetaio GmbH Method and system for projecting digital information on a real object in a real environment
CN105683866A (en) * 2013-08-22 2016-06-15 惠普发展公司,有限责任合伙企业 Projective computing system
CN107121079A (en) * 2017-06-14 2017-09-01 华中科技大学 A kind of curved surface elevation information measurement apparatus and method based on monocular vision
WO2018142743A1 (en) * 2017-02-01 2018-08-09 シャープ株式会社 Projection suitability detection system, projection suitability detection method and projection suitability detection program
WO2020157821A1 (en) * 2019-01-29 2020-08-06 三菱電機エンジニアリング株式会社 Work assisting system
JP2020202486A (en) * 2019-06-10 2020-12-17 株式会社ライゾマティクス Projection system, projection control device, projection control program, and control method of projection system
JP2021102359A (en) * 2019-12-24 2021-07-15 高砂熱学工業株式会社 Instruction system, control method, and program

Cited By (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004347488A (en) * 2003-05-23 2004-12-09 Mitsubishi Electric Corp Field work support device
JP2006186680A (en) * 2004-12-27 2006-07-13 Fuji Xerox Co Ltd System and method for comment image presentation
JP4736426B2 (en) * 2004-12-27 2011-07-27 富士ゼロックス株式会社 Annotation image presentation system
JP2006189712A (en) * 2005-01-07 2006-07-20 Nippon Telegr & Teleph Corp <Ntt> Information presenting apparatus, information presenting method and program
JP2006259627A (en) * 2005-03-18 2006-09-28 Nippon Telegr & Teleph Corp <Ntt> Image processor, image processing method and program
JP4579730B2 (en) * 2005-03-18 2010-11-10 日本電信電話株式会社 Image processing apparatus, image processing method and program thereof
JP2007042073A (en) * 2005-07-01 2007-02-15 Canon Inc Video presentation system, video presentation method, program for causing computer to execute video presentation method and storage medium
US8139087B2 (en) 2005-07-01 2012-03-20 Canon Kabushiki Kaisha Image presentation system, image presentation method, program for causing computer to execute the method, and storage medium storing the program
JP2007198870A (en) * 2006-01-26 2007-08-09 Fuji Xerox Co Ltd Remote indication system and remote indication method
JP2007226765A (en) * 2006-01-26 2007-09-06 Fuji Xerox Co Ltd Instruction device, instruction system, instruction method and instruction program
JP2007208741A (en) * 2006-02-02 2007-08-16 Fuji Xerox Co Ltd Remote indication system and method
JP2007293717A (en) * 2006-04-26 2007-11-08 Nippon Telegr & Teleph Corp <Ntt> Position data converter and position data conversion method
JP4594272B2 (en) * 2006-04-26 2010-12-08 日本電信電話株式会社 POSITION DATA CONVERSION DEVICE AND POSITION DATA CONVERSION METHOD
JP2010540970A (en) * 2007-10-05 2010-12-24 アーテック・グループ・インコーポレーテッド Integrated object capturing system, display device, and related method
JP2009175060A (en) * 2008-01-25 2009-08-06 Fuji Xerox Co Ltd Indication system, indication program, and indicator
WO2009098803A1 (en) * 2008-02-08 2009-08-13 Dainippon Screen Mfg.Co., Ltd. Image information generation device and image information generation method
JP4666060B2 (en) * 2008-11-14 2011-04-06 富士ゼロックス株式会社 Information processing apparatus, information processing system, and program
JP2010117691A (en) * 2008-11-14 2010-05-27 Fuji Xerox Co Ltd Information processor, information processing system, and program
JP2012002564A (en) * 2010-06-15 2012-01-05 Seiko Epson Corp Three-dimensional shape measuring device, calibration method for three-dimensional shape measuring device and robot device
JP2013090109A (en) * 2011-10-17 2013-05-13 Canon Inc Information processing system, information processing apparatus, method for controlling the system and apparatus, and program
JP2013151044A (en) * 2012-01-25 2013-08-08 Hirata Corp Work support device
JP2016509394A (en) * 2012-12-28 2016-03-24 メタイオ ゲゼルシャフト ミット ベシュレンクテル ハフツングmetaio GmbH Method and system for projecting digital information on a real object in a real environment
US10126880B2 (en) 2013-08-22 2018-11-13 Hewlett-Packard Development Company, L.P. Projective computing system
JP2016528647A (en) * 2013-08-22 2016-09-15 ヒューレット−パッカード デベロップメント カンパニー エル.ピー.Hewlett‐Packard Development Company, L.P. Projective computing system
CN105683866A (en) * 2013-08-22 2016-06-15 惠普发展公司,有限责任合伙企业 Projective computing system
JP2015103891A (en) * 2013-11-22 2015-06-04 株式会社リコー Image projection system, image processing apparatus, image projection method and program
KR20160130938A (en) * 2014-03-06 2016-11-15 파나소닉 인텔렉츄얼 프로퍼티 코포레이션 오브 아메리카 Measurement system, measurement method and vision chip
KR102217934B1 (en) * 2014-03-06 2021-02-19 파나소닉 인텔렉츄얼 프로퍼티 코포레이션 오브 아메리카 Measurement system, measurement method and vision chip
JP2015180857A (en) * 2014-03-06 2015-10-15 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America Measurement system, measurement method and vision chip
US10240915B2 (en) 2014-03-06 2019-03-26 Panasonic Intellectual Property Corporation Of America Measurement system, measurement method, and vision chip
WO2015133053A1 (en) * 2014-03-06 2015-09-11 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Measurement system, measurement method, and vision chip
JP2015219679A (en) * 2014-05-16 2015-12-07 株式会社リコー Image processing system, information processing device, and program
WO2018142743A1 (en) * 2017-02-01 2018-08-09 シャープ株式会社 Projection suitability detection system, projection suitability detection method and projection suitability detection program
JPWO2018142743A1 (en) * 2017-02-01 2019-12-19 シャープ株式会社 Projection suitability detection system, projection suitability detection method and projection suitability detection program
CN107121079A (en) * 2017-06-14 2017-09-01 华中科技大学 A kind of curved surface elevation information measurement apparatus and method based on monocular vision
CN107121079B (en) * 2017-06-14 2019-11-22 华中科技大学 A kind of curved surface elevation information measuring device and method based on monocular vision
WO2020157821A1 (en) * 2019-01-29 2020-08-06 三菱電機エンジニアリング株式会社 Work assisting system
JPWO2020157821A1 (en) * 2019-01-29 2021-09-30 三菱電機エンジニアリング株式会社 Work support system
JP7034340B2 (en) 2019-01-29 2022-03-11 三菱電機エンジニアリング株式会社 Work support system
JP2020202486A (en) * 2019-06-10 2020-12-17 株式会社ライゾマティクス Projection system, projection control device, projection control program, and control method of projection system
JP7352239B2 (en) 2019-06-10 2023-09-28 株式会社アブストラクトエンジン Projection system, projection control device, projection control program, and projection system control method
JP2021102359A (en) * 2019-12-24 2021-07-15 高砂熱学工業株式会社 Instruction system, control method, and program
JP7383473B2 (en) 2019-12-24 2023-11-20 高砂熱学工業株式会社 Instruction system, unmanned aircraft and instruction method

Similar Documents

Publication Publication Date Title
JP2003270719A (en) Projection method, projector, and method and system for supporting work
JP6996594B2 (en) Image processing equipment, image processing methods, and programs
KR100878127B1 (en) Single camera system for gesture-based input and target indication
JP4677281B2 (en) Image processing method and image processing apparatus
JP4926826B2 (en) Information processing method and information processing apparatus
JP2004062758A (en) Information processor and information processing method
JP2006072903A (en) Image compositing method and device
JP2002092647A (en) Information presentation system and model error detection system
EP3330928A1 (en) Image generation device, image generation system, and image generation method
JP6846661B2 (en) Projection methods and devices for three-dimensional projection objects
JP2010060344A (en) Space information display device and support device
US20240071016A1 (en) Mixed reality system, program, mobile terminal device, and method
JP3245336B2 (en) Modeling method and modeling system
JP5727207B2 (en) Image monitoring device
JP6295296B2 (en) Complex system and target marker
KR101496761B1 (en) 3D Model Control System and Method Based on multi-screen Projection
EP4012654A2 (en) Feature determination, measurement, and virtualization from 2-d image capture
Dinh et al. Augmented reality interface for taping robot
JP7401245B2 (en) Image synthesis device, control method and program for image synthesis device
KR100708875B1 (en) Apparatus and method for calculating position on a display pointed by a pointer
JPH11110588A (en) Three-dimensional image display
EP4047458A1 (en) Three-dimensional graphics generation system
JP2001239983A (en) Outfit assisting system
JP7380661B2 (en) Projection method and projection system
WO2021166751A1 (en) Information-processing device, information-processing method, and computer program