JP2006252036A - Projection image creation apparatus, program, projection image creation method, and image projection system - Google Patents

Projection image creation apparatus, program, projection image creation method, and image projection system Download PDF

Info

Publication number
JP2006252036A
JP2006252036A JP2005065844A JP2005065844A JP2006252036A JP 2006252036 A JP2006252036 A JP 2006252036A JP 2005065844 A JP2005065844 A JP 2005065844A JP 2005065844 A JP2005065844 A JP 2005065844A JP 2006252036 A JP2006252036 A JP 2006252036A
Authority
JP
Japan
Prior art keywords
data
hand
display position
movement
hand area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005065844A
Other languages
Japanese (ja)
Inventor
Tamotsu Machino
保 町野
Satoshi Iwaki
敏 岩城
Yoshito Nanjo
義人 南條
Hiroaki Kawada
博昭 河田
Yoshimasa Yanagihara
義正 柳原
Ayako Takenouchi
紋子 竹野内
Kenichiro Shimokura
健一朗 下倉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2005065844A priority Critical patent/JP2006252036A/en
Publication of JP2006252036A publication Critical patent/JP2006252036A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Projection Apparatus (AREA)
  • Image Input (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】一般的な装置を用いて、投影装置による画像の投影側の空間で作業者が物体を移動させた場合に、表示される画像を物体の移動に応じて調整する。
【解決手段】本発明の一態様の投影画像作成装置8は、撮影装置5で撮影される空間内の物体2に関連する物体関連データ4とこの表示位置を示す表示位置データ6を記憶する物体記憶手段12、撮影装置5で撮影された撮影画像データ10から作業者の手61の領域を検出した手領域データ25を作成する手領域検出手段17、手領域データ25の手領域と表示位置データ6の表示位置とから、手61で物体2が握られた状態を検出する物体ホールド検出手段13、手61で物体2が握られた状態であり手領域データ25の手領域が移動した場合に、手領域移動にそって移動後の物体関連データの表示位置を示す移動後表示位置データ7を作成する位置管理手段22a、移動後表示位置データ7の位置に物体関連データ4を表示する投影画像データ9を作成する画像データ作成手段22bを具備する。
【選択図】 図1
When a worker moves an object in a space on an image projection side by a projection apparatus using a general apparatus, the displayed image is adjusted according to the movement of the object.
A projection image creating apparatus according to one aspect of the present invention stores an object-related data associated with an object in a space photographed by a photographing apparatus and display position data indicating the display position. The storage means 12, the hand area detection means 17 for creating the hand area data 25 that detects the area of the hand 61 of the worker from the photographed image data 10 photographed by the photographing device 5, the hand area and the display position data of the hand area data 25. 6 when the object 2 is held by the hand 61 and the hand region of the hand region data 25 is moved. , Position management means 22a for creating post-movement display position data 7 indicating the display position of the object-related data after movement along with the movement of the hand region, and a projection image for displaying the object-related data 4 at the position of the display position data 7 after movement Comprising the image data generating unit 22b for creating data 9.
[Selection] Figure 1

Description

本発明は、投影装置によって投影される画像データを作成する投影画像作成装置、プログラム、投影画像作成方法、及び画像投影システムに関する。   The present invention relates to a projection image creation device, a program, a projection image creation method, and an image projection system for creating image data projected by a projection device.

プロジェクタは、画像データに基づく画像を表示面に映す。
特許文献1(特開2003−140830)には、プロジェクタシステムに無線にてマウスポインタの操作及びクリック操作を伝達し、スクリーンに投影されたポインタ画像の位置及び投影状態を認識し、マウス制御信号に従って処理を行う発明が開示されている。
The projector projects an image based on the image data on the display surface.
Patent Document 1 (Japanese Patent Laid-Open No. 2003-140830) wirelessly transmits a mouse pointer operation and a click operation to a projector system, recognizes the position and projection state of a pointer image projected on a screen, and follows a mouse control signal. An invention for processing is disclosed.

非特許文献1(「プロジェクタを用いた3次元遠隔指示インタフェースの構築」(東城、日浦、井口;大阪大学)、日本バーチャルリアリティ学会論文誌、Vol.7,No.2、pp.169-176、Jun.2002)には、レーザレンジファインダなどの物体を計測する装置とプロジェクタを用いた3次元遠隔指示インタフェースの構築技術について記載されている。   Non-Patent Document 1 ("Construction of a 3D remote instruction interface using a projector" (Tojo, Hiura, Iguchi; Osaka University), Transactions of the Virtual Reality Society of Japan, Vol.7, No.2, pp.169-176 , Jun. 2002) describes a technique for constructing a three-dimensional remote instruction interface using an apparatus for measuring an object such as a laser range finder and a projector.

特開2003−140830JP 2003-140830 A

「プロジェクタを用いた3次元遠隔指示インタフェースの構築」(東城、日浦、井口;大阪大学)、日本バーチャルリアリティ学会論文誌、Vol.7,No.2、pp.169-176、Jun.2002"Construction of a 3D remote instruction interface using a projector" (Tojo, Hiura, Iguchi; Osaka University), Transactions of the Virtual Reality Society of Japan, Vol.7, No.2, pp.169-176, Jun.2002

上記特許文献1では、マウスポインタの操作及びクリック操作によりプロジェクタシステムによる投影状態が変化する。
しかしながら、例えば画像の投射された空間側で何らかの変化又はイベントが発生したとしても、何ら投射される画像は変化しない。
In Patent Document 1, the projection state by the projector system is changed by the operation of the mouse pointer and the click operation.
However, for example, even if some change or event occurs on the space where the image is projected, the projected image does not change at all.

上記非特許文献1においては、レーザレンジファインダなどの物体を計測する特別の装置を必要とする。
本発明は、以上のような実情に鑑みてなされたもので、投影装置及び撮影装置という一般的な装置を用いて、投影装置による画像の投影側の空間で作業者が物体を移動させた場合に、表示される画像を物体の移動に応じて容易に調整する投影画像作成装置、プログラム、投影画像作成方法、及び画像投影システムを提供することを目的とする。
In the said nonpatent literature 1, the special apparatus which measures objects, such as a laser range finder, is required.
The present invention has been made in view of the above circumstances, and a case where an operator moves an object in a space on the projection side of an image by a projection device using a general device such as a projection device and a photographing device. It is another object of the present invention to provide a projection image creation apparatus, a program, a projection image creation method, and an image projection system that easily adjust a displayed image according to the movement of an object.

発明の態様に係る投影画像作成装置は、撮影装置によって撮影される空間に配置されている物体に関連する物体関連データとこの物体関連データの表示位置を示す表示位置データとを記憶する物体記憶手段と、撮影装置によって撮影された撮影画像データに基づいて、作業者の手の領域を検出した手領域データを作成する手領域検出手段と、手領域データの示す手領域と表示位置データの示す表示位置とに基づいて、作業者の手によって物体が握られた状態か否かを検出する物体ホールド検出手段と、作業者の手によって物体が握られた状態であり、手領域データの示す手領域が移動した場合に、手領域の移動にそって移動後の物体関連データの表示位置を示す移動後表示位置データを作成する位置管理手段と、移動後表示位置データの示す位置に物体関連データを表示する投影画像データを作成する画像作成手段とを具備する。   The projection image creating apparatus according to the aspect of the invention stores object-related data related to an object arranged in a space photographed by the photographing apparatus and object storage means for storing display position data indicating a display position of the object-related data. And hand region detecting means for creating hand region data for detecting the hand region of the worker based on the photographed image data photographed by the photographing device, and the hand region indicated by the hand region data and the display indicated by the display position data An object hold detecting means for detecting whether or not the object is held by the operator's hand based on the position, and the hand area indicated by the hand area data in a state where the object is held by the operator's hand The position management means for creating post-movement display position data indicating the display position of the object-related data after movement along with the movement of the hand area, and the display position data after movement Comprising an image forming means for forming a projection image data for displaying the object-related data to the location.

これにより、投影装置及び撮影装置という一般的な装置を用いて、投影装置による画像の投影側の空間で作業者が物体を移動させた場合に、この物体の移動に対応した位置に物体関連データを迅速、効率的、容易に表示させることができる。
上記投影画像作成装置において、位置管理手段は、物体記憶手段に記憶されている表示位置データを、移動後表示位置データにより更新するとしてもよい。
As a result, when an operator moves an object in a space on the projection side of an image by the projection apparatus using a general apparatus such as a projection apparatus and an imaging apparatus, object-related data is located at a position corresponding to the movement of the object. Can be displayed quickly, efficiently and easily.
In the projection image creating apparatus, the position management means may update the display position data stored in the object storage means with the display position data after movement.

また、投影画像作成装置において、手領域データに基づいて、手領域の重心の位置を示す重心データを作成する重心算出手段をさらに具備し、物体ホールド検出手段は、重心データの示す前記手領域の重心の位置と、表示位置データの示す物体関連データの表示位置との距離が所定の保持検出用のしきい値以下の場合に、作業者の手によって物体が握られた状態と判断するとしてもよい。   The projection image creating apparatus further includes a center of gravity calculating means for creating center of gravity data indicating the position of the center of gravity of the hand area based on the hand area data, and the object hold detecting means is configured to detect the hand area indicated by the center of gravity data. Even if it is determined that the object is held by the operator's hand when the distance between the position of the center of gravity and the display position of the object-related data indicated by the display position data is equal to or less than a predetermined holding detection threshold Good.

また、投影画像作成装置において、物体ホールド検出手段は、手領域データの示す手領域の移動加速度の値が負の値であり、かつ移動速度が所定の移動終了検出用のしきい値以下となった場合に、作業者の手によって物体が握られた状態が終了したと判断するとしてもよい。   In the projection image creating apparatus, the object hold detection means has a negative value for the movement acceleration of the hand area indicated by the hand area data, and the movement speed is equal to or less than a predetermined threshold value for detecting the end of movement. In such a case, it may be determined that the state in which the object is held by the operator's hand has ended.

さらに、投影画像作成装置において、位置管理手段は、移動開始時における手領域の位置から物体関連データの表示位置までのベクトルを求め、移動後の手領域の位置とベクトルとに基づいて移動後表示位置データを作成するとしてもよい。
なお、上記の態様は、装置として表現されている。しかしながら、これに限らず、上記の態様は、方法、プログラム、コンピュータ読み取り可能な記憶媒体などで表現されるとしてもよく、投影画像作成装置と撮影装置と投影装置とを具備するシステムで表現されるとしてもよい。
Further, in the projection image creation device, the position management means obtains a vector from the position of the hand area at the start of movement to the display position of the object-related data, and displays after movement based on the position and vector of the hand area after movement. Position data may be created.
In addition, said aspect is expressed as an apparatus. However, the present invention is not limited to this, and the above aspect may be expressed by a method, a program, a computer-readable storage medium, and the like, and is expressed by a system including a projection image creation device, a photographing device, and a projection device. It is good.

本発明により、投影装置及び撮影装置という一般的な装置を用いて、投影装置による画像の投影側の空間で作業者が物体を移動させた場合に、この空間に表示される画像をこの物体の移動に応じて容易に調整することができる。   According to the present invention, when an operator moves an object in a space on the projection side of an image by the projection apparatus using a general apparatus such as a projection apparatus and an imaging apparatus, an image displayed in the space is displayed on the object. It can be easily adjusted according to movement.

以下、図面を参照しながら本発明の実施の形態について説明する。なお、以下の各図において同一の部分については同一の符号を付して説明を省略する。
(第1の実施の形態)
図1は、本実施の形態に係る画像投影システムの構成の例を示すブロック図である。本実施の形態では、投影装置をプロジェクタ、撮影装置をカメラとして説明を行う。また、本実施の形態において、物体関連データとしては、例えば、物体の取り扱い方法、物体についての注意喚起、物体の位置移動方向、各種マーク、物体の属性データなど、物体に関する様々な内容のデータが用いられる。
Hereinafter, embodiments of the present invention will be described with reference to the drawings. In addition, the same code | symbol is attached | subjected about the same part in each following figure, and description is abbreviate | omitted.
(First embodiment)
FIG. 1 is a block diagram showing an example of the configuration of the image projection system according to the present embodiment. In the present embodiment, description will be made assuming that the projection apparatus is a projector and the photographing apparatus is a camera. Further, in the present embodiment, the object-related data includes, for example, data of various contents related to the object, such as the handling method of the object, the alerting about the object, the position movement direction of the object, various marks, and the attribute data of the object. Used.

本実施の形態に係る画像投影システム1は、まず、物体2の配置されている実空間に対して、プロジェクタ3により物体関連データ4の内容4aを物体2に関連付けた状態で表示する。次に、画像投影システム1は、この実空間をカメラ5により撮影し、作業者の手61の位置に応じてこの物体関連データ4の表示位置を変更・更新する。そして、画像投影システム1は、実空間に対してプロジェクタ3により物体関連データ4の内容4aを移動後の物体2に関連付ける位置に表示する。   In the image projection system 1 according to the present embodiment, first, the content 4 a of the object-related data 4 is displayed in a state associated with the object 2 by the projector 3 in the real space in which the object 2 is arranged. Next, the image projection system 1 captures this real space with the camera 5 and changes / updates the display position of the object-related data 4 according to the position of the hand 61 of the operator. Then, the image projection system 1 displays the content 4a of the object related data 4 at a position associated with the moved object 2 by the projector 3 with respect to the real space.

より具体的に説明すると、本実施の形態に係る画像投影システム1は、実空間上の物体2の物体関連データ4と表示位置を示す表示位置データ(座標値)6とを関連付け、この表示位置データ6に応じて物体関連データ4をプロジェクタ3で実空間上に提示し、作業者の手61を認識し、手61の移動量に基づいて移動後表示位置データ7を作成し、空間における移動後表示位置データ7の示す位置に物体関連データ4を表示することで、移動する物体2に対応する物体関連データ4を表示する。   More specifically, the image projection system 1 according to the present embodiment associates the object-related data 4 of the object 2 in the real space with the display position data (coordinate value) 6 indicating the display position, and this display position. The object-related data 4 is presented on the real space by the projector 3 according to the data 6, the operator's hand 61 is recognized, the post-movement display position data 7 is created based on the movement amount of the hand 61, and the movement in the space By displaying the object related data 4 at the position indicated by the post display position data 7, the object related data 4 corresponding to the moving object 2 is displayed.

画像投影システム1は、プロジェクタ3、カメラ5、投影画像作成装置8を具備する。
プロジェクタ3は、投影画像作成装置8によって作成された投影画像データ9を受け、この投影画像データ9に基づいて実空間に対して画像を投影する。
カメラ5は、実空間において、物体2の配置状態及びプロジェクタ3によって投影された画像の状態など、実空間の状態を撮影し、この実空間の状態を示す撮影画像データ10を投影画像作成装置8に渡す。
The image projection system 1 includes a projector 3, a camera 5, and a projection image creation device 8.
The projector 3 receives the projection image data 9 created by the projection image creation device 8 and projects an image onto the real space based on the projection image data 9.
The camera 5 shoots the real space state such as the arrangement state of the object 2 and the state of the image projected by the projector 3 in the real space, and uses the captured image data 10 indicating the real space state as the projection image creation device 8. To pass.

投影画像作成装置8は、画像認識部11、物体データベース12、物体ホールド検出部13、画像作成部14を具備する。
さらに、画像認識部11は、撮影画像取得部15、撮影画像データ記憶部16、手領域検出部17、手領域データ記憶部18、重心算出部19、重心データ記憶部20を具備する。このうち、手領域検出部17、手領域データ記憶部18、重心算出部19、重心データ記憶部20により、手位置検出部21が構成される。
The projection image creation device 8 includes an image recognition unit 11, an object database 12, an object hold detection unit 13, and an image creation unit 14.
The image recognition unit 11 further includes a captured image acquisition unit 15, a captured image data storage unit 16, a hand region detection unit 17, a hand region data storage unit 18, a centroid calculation unit 19, and a centroid data storage unit 20. Among these, the hand region detection unit 17, the hand region data storage unit 18, the centroid calculation unit 19, and the centroid data storage unit 20 constitute a hand position detection unit 21.

また、画像作成部14は、位置変更部22、投影画像データ記憶部23、投影画像提供部24を具備する。
撮影画像取得部15は、カメラ5から空間の撮影画像データ10を取得し、撮影画像データ10を撮影画像データ記憶部16に記憶する。
手領域検出部17は、撮影画像データ記憶部16から撮影画像データ10を読み出し、この撮影画像データ10に対する画像解析により作業者の手61を示す肌色領域を手領域として検出する。そして、手領域検出部17は、手領域検出結果を示す手領域データ25を作成し、手領域データ記憶部18に記憶する。
The image creation unit 14 includes a position changing unit 22, a projection image data storage unit 23, and a projection image providing unit 24.
The captured image acquisition unit 15 acquires the captured image data 10 of the space from the camera 5 and stores the captured image data 10 in the captured image data storage unit 16.
The hand region detection unit 17 reads the photographed image data 10 from the photographed image data storage unit 16 and detects a skin color region indicating the worker's hand 61 as a hand region by image analysis on the photographed image data 10. Then, the hand region detection unit 17 creates hand region data 25 indicating the hand region detection result and stores it in the hand region data storage unit 18.

なお、物体2を移動させるものが手61ではない場合においても、物体2を移動させる場合にこの物体2と接触するものを検出すればよい。作業者が手袋等を装着する場合は、この手袋を検出する。
重心算出部19は、手領域データ記憶部18から手領域データ25を読み出し、この手領域データ25における手領域の重心の位置(座標値)を算出し、重心の位置を示す重心データ26を作成する。そして、重心算出部19は、重心データ26を重心データ記憶部20に記憶する。
Even when the object 2 is not moved by the hand 61, it is only necessary to detect an object that contacts the object 2 when the object 2 is moved. When an operator wears gloves, this glove is detected.
The center-of-gravity calculation unit 19 reads the hand region data 25 from the hand region data storage unit 18, calculates the position (coordinate value) of the center of gravity of the hand region in the hand region data 25, and creates the center-of-gravity data 26 indicating the position of the center of gravity. To do. The centroid calculating unit 19 stores the centroid data 26 in the centroid data storage unit 20.

物体データベース12は、物体関連データ4と、物体関連データ4の表示位置(座標値)を示す表示位置データ6とを関連付けて記憶する。
図2は、物体データベース12の記憶内容の例を示す図である。
この図2では、複数の物体2ごとに、物体関連データ4と表示位置データ6とがテーブル形式で管理されている。
The object database 12 stores the object-related data 4 and display position data 6 indicating the display position (coordinate values) of the object-related data 4 in association with each other.
FIG. 2 is a diagram illustrating an example of the contents stored in the object database 12.
In FIG. 2, object-related data 4 and display position data 6 are managed in a table format for each of the plurality of objects 2.

物体関連データ4の内容としては、物体ID、物体名、物体と関連付けて表示するマークの形状、属性データ(例えば空間への配置時間、物体についての注意事項、特徴、操作方法など)が管理されている。
表示位置データ6としては、この物体関連データ4を表示する位置を示すX座標の値、Y座標の値が管理されている。
As the contents of the object related data 4, an object ID, an object name, a mark shape to be displayed in association with the object, and attribute data (for example, arrangement time in space, cautions on the object, features, operation method, etc.) are managed. ing.
As the display position data 6, an X coordinate value and a Y coordinate value indicating a position where the object related data 4 is displayed are managed.

物体ホールド検出部13は、重心データ記憶部20から重心データ26を読み出すとともに、物体データベース12から物体2の表示位置データ6を読み出す。
そして、物体ホールド検出部13は、重心データ26の示す手領域の重心の位置と物体関連データの示す物体関連データ4の表示位置とに基づいて、物体2と作業者の手61とが接触した状態か(物体が作業者の手により握られた状態か)、すなわち物体2が作業者の手61により移動する状態か判断し、判断結果を位置変更部22に通知する。
The object hold detection unit 13 reads the centroid data 26 from the centroid data storage unit 20 and reads the display position data 6 of the object 2 from the object database 12.
The object hold detection unit 13 makes contact between the object 2 and the operator's hand 61 based on the position of the center of gravity of the hand region indicated by the center of gravity data 26 and the display position of the object related data 4 indicated by the object related data. It is determined whether the object 2 is in a state (whether the object is held by the operator's hand), that is, whether the object 2 is moved by the operator's hand 61 and notifies the position change unit 22 of the determination result.

例えば、物体ホールド検出部13は、重心データ26の示す座標値と表示位置データ6の示す座標値との間の距離が所定の保持検出用しきい値以下となった場合に、物体2が作業者の手61により移動する状態として検出する。一方、物体ホールド検出部13は、重心データ26の示す座標値で表される手61の重心の移動加速度の値が負の値であり、かつ移動速度が所定の移動終了検出用しきい値以下となった場合に、物体2が作業者の手61により移動している状態の終了を検出する。   For example, when the distance between the coordinate value indicated by the gravity center data 26 and the coordinate value indicated by the display position data 6 is equal to or less than a predetermined threshold value for holding detection, the object hold detection unit 13 This is detected as a state of movement by the person's hand 61. On the other hand, the object hold detection unit 13 has a negative value for the movement acceleration of the center of gravity of the hand 61 represented by the coordinate value indicated by the center of gravity data 26, and the movement speed is equal to or less than a predetermined movement end detection threshold. In this case, the end of the state in which the object 2 is moving by the operator's hand 61 is detected.

位置変更部22は、位置管理機能22aと画像データ作成機能22bとを具備する。
位置変更部22の位置管理機能22aは、物体ホールド検出部13によって物体2の移動が検出された場合に、重心データ26の移動方向と距離に応じて移動後表示位置データ7を作成し、この移動後表示位置データ7により物体データベースにおける表示位置データ6を更新する。
The position changing unit 22 includes a position management function 22a and an image data creation function 22b.
When the movement of the object 2 is detected by the object hold detection unit 13, the position management function 22 a of the position changing unit 22 creates post-movement display position data 7 according to the moving direction and distance of the centroid data 26. The display position data 6 in the object database is updated with the display position data 7 after movement.

位置変更部22の画像データ作成機能22bは、物体データベース12における物体関連データ4の内容を、表示位置データ6(移動後の場合は移動後表示位置データ7)の示す表示位置に表示する投影画像データ9を作成し、投影画像データ記憶部23に記憶する。   The image data creation function 22b of the position changing unit 22 displays the content of the object-related data 4 in the object database 12 at the display position indicated by the display position data 6 (the display position data 7 after movement in the case of movement). Data 9 is created and stored in the projection image data storage unit 23.

投影画像提供部24は、投影画像データ記憶部24に記憶されている投影画像データ9を読み出し、プロジェクタ3に提供する。
上記のような画像投影システム1を用いることで、一般的なカメラ5及びプロジェクタ3を用いて、空間に配置されている物体2を作業者が手61で移動させた場合に、手61の移動に応じて物体2に対する物体関連データ4の表示位置も移動させることができる。
The projection image providing unit 24 reads the projection image data 9 stored in the projection image data storage unit 24 and provides it to the projector 3.
By using the image projection system 1 as described above, when the operator moves the object 2 arranged in the space with the hand 61 using the general camera 5 and the projector 3, the movement of the hand 61 is performed. Accordingly, the display position of the object-related data 4 with respect to the object 2 can also be moved.

図3は、手61の重心の座標値と物体関連データ4の表示位置の座標値との関係の例を示す概念図である。なお、この図3においては記載を簡略化するため、画像投影システム1についてカメラ5、プロジェクタ3、画像認識部11、画像作成部14のみを記載し、他の部分については省略している。   FIG. 3 is a conceptual diagram showing an example of the relationship between the coordinate value of the center of gravity of the hand 61 and the coordinate value of the display position of the object-related data 4. In FIG. 3, only the camera 5, projector 3, image recognition unit 11, and image creation unit 14 are shown in the image projection system 1 for the sake of simplicity, and the other parts are omitted.

表示位置データ6の示す物体関連データ4の内容4aの表示位置をOとし、内容4aの表示位置Oの座標値をO(X0,Y0)と表す。
また、手61の重心をH、手の重心Hの座標値をH(Xh,Yh)と表す。
画像投影システム1は、座標値O(X0,Y0)と座標値H(Xh,Yh)とに基づいて、物体関連データ4の表示位置Oと手61の重心Hとの距離を求める。
The display position of the content 4a of the object-related data 4 indicated by the display position data 6 is represented by O, and the coordinate value of the display position O of the content 4a is represented by O (X0, Y0).
The center of gravity of the hand 61 is represented as H, and the coordinate value of the center of gravity H of the hand is represented as H (Xh, Yh).
The image projection system 1 obtains the distance between the display position O of the object-related data 4 and the center of gravity H of the hand 61 based on the coordinate value O (X0, Y0) and the coordinate value H (Xh, Yh).

画像投影システム1は、内容4aの表示位置Oと手61の重心Hとの距離が所定の保持検出用しきい値以下となる場合、位置Oと重心Hとの相対的な位置が一定となるように、移動後の物体関連データ4の表示位置を求め、この移動後の表示位置により表示位置Oの座標値O(X0,Y0)を更新する。   In the image projection system 1, when the distance between the display position O of the content 4a and the center of gravity H of the hand 61 is equal to or less than a predetermined holding detection threshold, the relative position between the position O and the center of gravity H is constant. As described above, the display position of the object-related data 4 after the movement is obtained, and the coordinate value O (X0, Y0) of the display position O is updated with the display position after the movement.

画像投影システム1は、手の重心Hの移動加速度の値が負の値であり、かつ移動速度が所定の移動終了検出用しきい値以下となった場合に、物体関連データ4の表示位置Oの座標値O(X0,Y0)の更新を終了する。
画像投影システム1は、物体関連データ4の表示位置Oと手61の重心Hとの距離が保持検出用しきい値を越えた後、再度保持検出用しきい値以下となった場合、位置Oと重心Hとの相対的な位置が一定となるように、物体関連データ4の表示位置Oの座標値O(X0,Y0)を更新する。
The image projection system 1 displays the display position O of the object related data 4 when the value of the movement acceleration of the center of gravity H of the hand is a negative value and the movement speed is equal to or less than a predetermined movement end detection threshold. The update of the coordinate value O (X0, Y0) of is completed.
When the distance between the display position O of the object-related data 4 and the center of gravity H of the hand 61 exceeds the holding detection threshold, the image projecting system 1 returns to the position O again when the distance falls below the holding detection threshold. The coordinate value O (X0, Y0) of the display position O of the object related data 4 is updated so that the relative position between the center of gravity H and the center of gravity H is constant.

図4は、物体ホールド検出部13の処理の例を示すフローチャートである。
ステップS1において、物体ホールド検出部13は、物体2が手61で握られた状態の検出に用いられる保持検出用しきい値Dgを設定するとともに、物体2が手61で握られた状態か否かを示す物体ホールドフラグFgに、物体2が手61で握られていない状態を表すFalseを設定する。
FIG. 4 is a flowchart illustrating an example of processing of the object hold detection unit 13.
In step S <b> 1, the object hold detection unit 13 sets a holding detection threshold value Dg used for detecting the state in which the object 2 is gripped by the hand 61, and whether or not the object 2 is in the state gripped by the hand 61. In the object hold flag Fg indicating the above, False representing a state in which the object 2 is not grasped by the hand 61 is set.

ステップS2において、物体ホールド検出部13は、手61が物体2を放した状態の検出に用いられる移動終了検出用しきい値Dfを設定する。
ステップS3において、物体ホールド検出部13は、撮影画像の取得周期Tcapを設定する。
なお、上記ステップS1〜S3の処理順序は、任意に変更でき、並列に実行されるとしてもよい。
In step S <b> 2, the object hold detection unit 13 sets a movement end detection threshold value Df used for detecting a state in which the hand 61 releases the object 2.
In step S <b> 3, the object hold detection unit 13 sets a captured image acquisition period Tcap.
Note that the processing order of the steps S1 to S3 can be arbitrarily changed, and may be executed in parallel.

ステップS4において、物体ホールド検出部13は、重心算出部19によって算出された現在の手61の重心Hの座標値H(Xh,Yh)を取得する。
ステップS5において、物体ホールド検出部13は、物体データベース12から表示位置データ6の示す表示位置Oの座標値O(X0,Y0)を取得する。
In step S <b> 4, the object hold detection unit 13 acquires the coordinate value H (Xh, Yh) of the current center of gravity H of the hand 61 calculated by the center of gravity calculation unit 19.
In step S5, the object hold detection unit 13 acquires the coordinate value O (X0, Y0) of the display position O indicated by the display position data 6 from the object database 12.

なお、ステップS4,S5は、逆の順序で実行されてもよく、並列に実行されてもよい。
ステップS6において、物体ホールド検出部13は、手61の重心Hと表示位置データ6の示す表示位置Oとの間の距離が保持検出用しきい値Dg以下か判断する。
Note that steps S4 and S5 may be executed in reverse order or in parallel.
In step S6, the object hold detection unit 13 determines whether the distance between the center of gravity H of the hand 61 and the display position O indicated by the display position data 6 is equal to or less than the hold detection threshold value Dg.

重心Hと位置Oとの間の距離がしきい値Dg以下でない場合、ステップS7において、物体ホールド検出部13は、撮影画像の取得周期Tcap経過まで待機し、その後処理はステップS4に戻る。
重心Hと位置Oとの間の距離がしきい値Dg以下の場合、ステップS8において、物体ホールド検出部13は、物体ホールドフラグFgに、物体2が手61で握られている状態を表すTrueを設定し、物体ホールドフラグFgを位置変更部22に提供する。
If the distance between the center of gravity H and the position O is not less than or equal to the threshold value Dg, in step S7, the object hold detection unit 13 waits until the captured image acquisition period Tcap elapses, and then the process returns to step S4.
When the distance between the center of gravity H and the position O is equal to or less than the threshold value Dg, the object hold detection unit 13 indicates that the object 2 is held by the hand 61 in the object hold flag Fg in step S8. And the object hold flag Fg is provided to the position changing unit 22.

ステップS9において、物体ホールド検出部13は、手61の重心Hの座標値H(Xh,Yh)を、座標保存値Htemp(Xh,Yh)に保持させる。
ステップS10において、物体ホールド検出部13は、撮影画像の取得周期Tcap経過まで、座標保存値変数Htemp(Xh,Yh)の保持状態を維持する。
In step S9, the object hold detection unit 13 holds the coordinate value H (Xh, Yh) of the center of gravity H of the hand 61 at the coordinate stored value Htemp (Xh, Yh).
In step S10, the object hold detection unit 13 maintains the coordinate storage value variable Htemp (Xh, Yh) until the captured image acquisition cycle Tcap has elapsed.

ステップS11において、物体ホールド検出部13は、重心算出部19によって算出された現在の手61の重心Hの座標値H(Xh,Yh)を取得する。
ステップS12において、物体ホールド検出部13は、手61の重心Hの移動加速度が負の値であり、かつ座標値H(Xh,Yh)と座標保存値Htemp(Xh,Yh)との間の距離が移動終了検出用しきい値Df以下か判断する。
In step S <b> 11, the object hold detection unit 13 acquires the coordinate value H (Xh, Yh) of the current center of gravity H of the hand 61 calculated by the center of gravity calculation unit 19.
In step S12, the object hold detection unit 13 has a negative value of the moving acceleration of the center of gravity H of the hand 61, and the distance between the coordinate value H (Xh, Yh) and the coordinate stored value Htemp (Xh, Yh). Is less than or equal to the movement end detection threshold value Df.

手61の重心Hの移動加速度の値が負の値であり、かつ手61の重心Hの座標値H(Xh,Yh)と座標保存値Htemp(Xh,Yh)との間の距離がしきい値Df以下という条件が満たされない場合、処理は、上記ステップS9に戻る。
手61の重心Hの移動加速度の値が負の値であり、かつ手61の重心Hの座標値H(Xh,Yh)と座標保存値Htemp(Xh,Yh)との間の距離がしきい値Df以下の場合、ステップS13において、物体ホールド検出部13は、物体ホールドフラグFgにFalseを設定し、物体ホールドフラグFgを位置変更部22に提供する。
The movement acceleration value of the center of gravity H of the hand 61 is a negative value, and the distance between the coordinate value H (Xh, Yh) of the center of gravity H of the hand 61 and the coordinate stored value Htemp (Xh, Yh) is a threshold. If the condition of value Df or less is not satisfied, the process returns to step S9.
The movement acceleration value of the center of gravity H of the hand 61 is a negative value, and the distance between the coordinate value H (Xh, Yh) of the center of gravity H of the hand 61 and the coordinate stored value Htemp (Xh, Yh) is a threshold. If the value is less than or equal to the value Df, in step S13, the object hold detection unit 13 sets False to the object hold flag Fg, and provides the object hold flag Fg to the position change unit 22.

ステップS14において、物体ホールド検出部13は、撮影画像の取得周期Tcap経過まで待機し、その後処理はステップS4に戻る。
この図4に示す物体ホールド検出部13の処理において、物体2が複数ありこの複数の物体2についてそれぞれの物体関連データ4を表示する場合には、ステップS4以下の処理を複数の物体2ごとに実行すればよい。また、複数の物体2についてそれぞれの物体関連データ4を表示する場合には、複数の物体2ごとにしきい値Dg,Dfを設定してもよい。
In step S14, the object hold detection unit 13 waits until the captured image acquisition cycle Tcap elapses, and then the process returns to step S4.
In the processing of the object hold detection unit 13 shown in FIG. 4, when there are a plurality of objects 2 and the respective object related data 4 is displayed for the plurality of objects 2, the processing after step S <b> 4 is performed for each of the plurality of objects 2. Just do it. Moreover, when displaying each object related data 4 about the some object 2, you may set threshold value Dg and Df for every some object 2. FIG.

また、本実施の形態では、座標値H(Xh,Yh)と座標値O(X0,Y0)の距離及びしきい値Dg,Df、手61の重心Hの移動加速度を用いて手61と物体2との接触状態(握られた状態)を検出している。しかしながら、物体データベース12に物体2について表示位置の座標値O(X0,Y0)とともに物体2の形やサイズ(物体が円の場合は半径)を登録しておき、座標値O(X0,Y0)と物体2の形とサイズとから物体2の領域と手61とが重なるか否かを判断し、手61と物体2との接触状態を検出してもよい。   Further, in the present embodiment, the hand 61 and the object using the distance between the coordinate value H (Xh, Yh) and the coordinate value O (X0, Y0), the threshold values Dg, Df, and the movement acceleration of the center of gravity H of the hand 61. 2 is detected (a state of being gripped). However, the shape and size (the radius when the object is a circle) of the object 2 are registered in the object database 12 together with the coordinate value O (X0, Y0) of the display position for the object 2, and the coordinate value O (X0, Y0). It is also possible to determine whether or not the region of the object 2 and the hand 61 overlap from the shape and size of the object 2 and detect the contact state between the hand 61 and the object 2.

図5は、位置変更部22の処理の例を示すフローチャートである。
ステップT1において、位置変更部22の位置管理機能22aは、位置更新周期Tprjを設定する。
ステップT2において、位置変更部22は、物体データベース12から表示位置データ6の示す表示位置Oの座標値O(X0,Y0)を取得するとともに、物体関連データ4を取得する。
FIG. 5 is a flowchart illustrating an example of processing of the position changing unit 22.
In step T1, the position management function 22a of the position changing unit 22 sets a position update period Tprj.
In step T2, the position changing unit 22 acquires the coordinate value O (X0, Y0) of the display position O indicated by the display position data 6 from the object database 12, and also acquires the object related data 4.

ステップT3において、位置変更部22の画像データ作成機能22bは、表示位置データ6の示す座標値O(X0,Y0)の表示位置に、物体関連データ4を表示する投影画像データ9を作成し、投影画像データ記憶部23に記憶する。これにより、投影画像データ9に基づく画像がプロジェクタ3により表示される。   In step T3, the image data creation function 22b of the position changing unit 22 creates projection image data 9 for displaying the object related data 4 at the display position of the coordinate value O (X0, Y0) indicated by the display position data 6, The data is stored in the projection image data storage unit 23. Thereby, an image based on the projection image data 9 is displayed by the projector 3.

ステップT4において、位置変更部22の位置管理機能22aは、物体ホールド検出部13から受け付けた物体ホールドフラグFgがFalseか判断する。
物体ホールドフラグFgがFalseの場合、このステップT4を繰り返す。
物体ホールドフラグFgがFalseでない場合、ステップT5において、位置変更部22の位置管理機能22aは、重心算出部19によって算出された現在の手61の重心Hの座標値H(Xh,Yh)を取得する。
In step T4, the position management function 22a of the position changing unit 22 determines whether the object hold flag Fg received from the object hold detection unit 13 is False.
If the object hold flag Fg is False, this step T4 is repeated.
When the object hold flag Fg is not False, the position management function 22a of the position changing unit 22 acquires the coordinate value H (Xh, Yh) of the current center of gravity H of the hand 61 calculated by the center of gravity calculating unit 19 in Step T5. To do.

ステップT6において、位置変更部22の位置管理機能22aは、手61の重心Hを始点とし、表示位置データ6の示す表示位置Oを終点とするベクトルHOを算出する。
ステップT7において、位置変更部22の位置管理機能22aは、位置更新周期Tprj経過まで待機する。
In step T <b> 6, the position management function 22 a of the position changing unit 22 calculates a vector HO starting from the center of gravity H of the hand 61 and having the display position O indicated by the display position data 6 as the end point.
In step T7, the position management function 22a of the position changing unit 22 waits until the position update cycle Tprj elapses.

ステップT8において、位置変更部22の位置管理機能22aは、重心算出部19によって算出された移動後の手61の重心Hの座標値H(Xh,Yh)を取得する。
ステップT9において、位置変更部22の位置管理機能22aは、移動後の手61の重心Hの座標値H(Xh,Yh)を始点とするベクトルHOの終点の座標値を、移動後表示位置データ7の示す表示位置Oの座標値O(X0,Y0)として求める。すなわち、座標管理機能は、移動後の手の重心Hの座標値H(Xh,Yh)+ベクトルHOを演算し、移動後の表示位置Oの座標値O(X0,Y0)を求める。
In step T8, the position management function 22a of the position changing unit 22 acquires the coordinate value H (Xh, Yh) of the center of gravity H of the hand 61 after movement calculated by the center of gravity calculating unit 19.
In step T9, the position management function 22a of the position changing unit 22 uses the coordinate value of the end point of the vector HO starting from the coordinate value H (Xh, Yh) of the center of gravity H of the hand 61 after movement as the display position data after movement. 7 is obtained as a coordinate value O (X0, Y0) of the display position O shown in FIG. That is, the coordinate management function calculates the coordinate value H (Xh, Yh) + vector HO of the center of gravity H of the hand after movement, and obtains the coordinate value O (X0, Y0) of the display position O after movement.

ステップT10において、位置変更部22の画像データ作成機能22bは、移動後表示位置データ7の示す座標値O(X0,Y0)の表示位置に、物体関連データ4を表示する移動後の投影画像データ9を作成し、投影画像データ記憶部23に記憶する。これにより、物体2の移動後の投影画像データ9に基づく画像がプロジェクタ3により表示される。   In step T10, the image data creation function 22b of the position changing unit 22 moves the projected image data after displaying the object related data 4 at the display position of the coordinate value O (X0, Y0) indicated by the moved display position data 7. 9 is created and stored in the projection image data storage unit 23. Thereby, an image based on the projection image data 9 after the movement of the object 2 is displayed by the projector 3.

ステップT11において、位置変更部22の画像データ作成機能22bは、物体ホールド検出部13から受け付けた物体ホールドフラグFgがFalseか判断する。
物体ホールドフラグFgがFalseでない場合、処理は上記ステップT7に戻る。
物体ホールドフラグFgがFalseの場合、ステップT12において、位置変更部22の位置管理機能22aは、上記ステップT9で求めた移動後表示位置データ7の示す表示位置Oの座標値O(X0,Y0)を、物体データベース12に登録する。その後、処理は、上記ステップT4に戻る。
In step T11, the image data creation function 22b of the position change unit 22 determines whether the object hold flag Fg received from the object hold detection unit 13 is False.
If the object hold flag Fg is not False, the process returns to Step T7.
When the object hold flag Fg is False, in step T12, the position management function 22a of the position changing unit 22 uses the coordinate value O (X0, Y0) of the display position O indicated by the post-movement display position data 7 obtained in step T9. Is registered in the object database 12. Thereafter, the process returns to step T4.

本実施の形態に係る画像投影システム1の利用態様の例について説明する。
例えば、プラントなどの作業現場において、移動可能であり取り扱いを注意すべき設備などがある場合、画像投影システム1を用いてこの設備の取り扱い方法や操作マニュアルなどを表示することができ、この設備の移動にそって取り扱い方法や操作マニュアルなどの表示内容も移動させることができる。
An example of a usage mode of the image projection system 1 according to the present embodiment will be described.
For example, if there is equipment that can be moved and should be handled with care at a work site such as a plant, the image projection system 1 can be used to display a handling method or an operation manual of the equipment. Display contents such as handling methods and operation manuals can be moved along with the movement.

また、サポートセンタで物体関連データ4を作成し、このサポートセンタで作成された物体関連データ4を迅速に作業現場に提示できる。これにより、現場とサポートセンタとで協調した作業を実現できる。
以上説明した本実施の形態においては、特殊な装置ではない一般的なカメラ5とプロジェクタ3を用いて、空間に配置されている物体2に対してこの物体2に関連する物体関連データ4を表示させることができる。
Further, the object related data 4 can be created at the support center, and the object related data 4 created at the support center can be quickly presented to the work site. As a result, cooperative work between the site and the support center can be realized.
In the present embodiment described above, the object related data 4 related to the object 2 is displayed on the object 2 arranged in the space using the general camera 5 and the projector 3 which are not special devices. Can be made.

また、作業者によって物体2が移動された場合においても、移動後の物体2の位置に物体関連データ4を表示させることができる。
本実施の形態では、撮影画像データ10から個々の物体2自体を認識するのではなく、作業者の手61を認識することで、キャリブレーションが簡単でかつ様々な物体2の移動に対応でき、認識対象を手2に特定することで認識精度を向上させることができ、空間に新たな物体2が配置される場合であっても、物体データベース12へ物体関連データ4と表示位置データ6を登録することで容易に対応できる。
Even when the object 2 is moved by the operator, the object related data 4 can be displayed at the position of the object 2 after the movement.
In the present embodiment, the individual object 2 itself is not recognized from the captured image data 10, but the operator's hand 61 is recognized, so that the calibration can be easily performed and the movement of various objects 2 can be supported. The recognition accuracy can be improved by specifying the recognition target as the hand 2, and the object related data 4 and the display position data 6 are registered in the object database 12 even when a new object 2 is arranged in the space. This can be easily handled.

なお、本実施の形態において、各構成要素は同様の動作を実現可能であれば配置を変更させてもよく、また各構成要素を自由に組み合わせてもよく、各構成要素を自由に分割してもよく、いくつかの構成要素を削除してもよい。すなわち、本実施の形態については、上記の構成そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。   In this embodiment, each component may be rearranged as long as the same operation can be realized, each component may be freely combined, and each component may be freely divided. Alternatively, some components may be deleted. That is, the present embodiment is not limited to the above-described configuration as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage.

例えば、本実施の形態において、物体ホールド検出部13は、手61の重心Hと表示位置データ6の示す表示位置Oとの距離に基づいて作業者の手61が物体2を握っているか否か判断している。しかしながら、これに代えて、例えば、物体ホールド検出部13は、手61の形状を認識し、この手61の形状が予め定められた物体保持形状パターンに該当するか、物体解放形状パターンに該当するか判断するなど、他の手法を用いて作業者の手61が物体2を握っているか否か判断するとしてもよい。   For example, in the present embodiment, the object hold detection unit 13 determines whether or not the operator's hand 61 is grasping the object 2 based on the distance between the center of gravity H of the hand 61 and the display position O indicated by the display position data 6. Deciding. However, instead of this, for example, the object hold detection unit 13 recognizes the shape of the hand 61, and the shape of the hand 61 corresponds to a predetermined object holding shape pattern or corresponds to an object release shape pattern. It may be determined whether or not the operator's hand 61 is holding the object 2 using another method.

また、例えば、各記憶部16,18,20,23及び物体データベース12は、自由に組み合わせることができる。各記憶部16,18,20,23及び物体データベース12に記憶されている各データも自由に組み合わせることができる。
図7は、本実施の形態に係る画像投影システム1の投影画像作成装置8を、コンピュータとソフトウェアとを用いて実現するための構成の例を示すブロック図である。
Further, for example, the storage units 16, 18, 20, 23 and the object database 12 can be freely combined. The data stored in the storage units 16, 18, 20, 23 and the object database 12 can be freely combined.
FIG. 7 is a block diagram showing an example of a configuration for realizing the projection image creation apparatus 8 of the image projection system 1 according to the present embodiment using a computer and software.

コンピュータ27は、プロセッサ28、例えば内部メモリなどの記憶装置29、内部バス30を具備する。プロセッサ28と記憶装置29とは、内部バス30経由で接続されている。
記憶媒体31に記憶されているプログラム32は、コンピュータ27に読み込まれ、プロセッサ28により実行される。これにより、コンピュータ27は、上記投影画像作成装置8の具備する各構成要素としての機能を実現する。記憶装置29は、各記憶部16,18,20,23及び物体データベース12として機能する。
The computer 27 includes a processor 28, a storage device 29 such as an internal memory, and an internal bus 30. The processor 28 and the storage device 29 are connected via an internal bus 30.
A program 32 stored in the storage medium 31 is read into the computer 27 and executed by the processor 28. As a result, the computer 27 realizes the function as each component included in the projection image creating apparatus 8. The storage device 29 functions as each storage unit 16, 18, 20, 23 and the object database 12.

本実施の形態において、プログラム32は、例えば磁気ディスク(フレキシブルディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリなどの記憶媒体31に書き込んで、投影画像作成装置8として動作するコンピュータ27に適用可能である。また、上記プログラム32は、通信媒体により伝送してコンピュータ27に適用することも可能である。コンピュータ27は、上記プログラム32を読み込み、このプログラム32によって動作が制御されることにより、投影画像作成装置8としての機能を実現する。プログラム32は、複数のコンピュータに分散して配置され、複数のコンピュータ間で互いに連携しつつ処理が実行されるとしてもよい。   In the present embodiment, the program 32 is written in a storage medium 31 such as a magnetic disk (flexible disk, hard disk, etc.), an optical disk (CD-ROM, DVD, etc.), a semiconductor memory, etc., and operates as the projection image creation device 8. The present invention can be applied to the computer 27. The program 32 can also be transmitted to a computer 27 and applied to the computer 27. The computer 27 reads the program 32 and controls the operation of the program 32 to realize the function as the projection image creation device 8. The program 32 may be distributed and arranged in a plurality of computers, and the processing may be executed while cooperating with each other between the plurality of computers.

(第2の実施の形態)
本実施の形態では、上記第1の実施の形態の変形例について説明する。上記第1の実施の形態の例では、物体1の移動状態が終了した後で、物体データベース12の表示位置データ6が更新されるとしている。
しかしながら、物体データベース12の更新タイミングは、これに限定されず、例えば、移動後表示位置データ7が作成されるたびに物体データベース12の表示位置データ6をこの移動後表示位置データ7により更新するとしてもよい。
(Second Embodiment)
In the present embodiment, a modification of the first embodiment will be described. In the example of the first embodiment, the display position data 6 in the object database 12 is updated after the moving state of the object 1 is completed.
However, the update timing of the object database 12 is not limited to this. For example, every time the post-movement display position data 7 is created, the display position data 6 of the object database 12 is updated by the post-movement display position data 7. Also good.

図7は、本実施の形態に係る画像投影システム1の処理の例を示すフローチャートである。
ステップU1において、撮影画像取得部15は、カメラ5によって撮影された撮影画像データ10を取得する。
ステップU2において、手領域検出部17は、例えば肌色検出などの手法により撮影画像データ10のうち手61の領域を検出する。
FIG. 7 is a flowchart showing an example of processing of the image projection system 1 according to the present embodiment.
In step U <b> 1, the captured image acquisition unit 15 acquires captured image data 10 captured by the camera 5.
In step U2, the hand region detection unit 17 detects the region of the hand 61 in the captured image data 10 by a method such as skin color detection.

ステップU3において、重心算出部19は、作業者の手61の領域の重心Hの座標値H(Xh,Yh)を算出する。
ステップU4において、物体ホールド検出部13は、物体データベース12内の表示位置データ6の示す表示位置Oの座標値O(X0,Y0)と手領域の重心Hの座標値H(Xh,Yh)との距離が保持検出用しきい値以下か判断する。距離が保持検出用しきい値以下でない場合、処理は、ステップU9に移る。
In step U3, the center-of-gravity calculation unit 19 calculates the coordinate value H (Xh, Yh) of the center of gravity H of the region of the operator's hand 61.
In step U4, the object hold detector 13 determines the coordinate value O (X0, Y0) of the display position O indicated by the display position data 6 in the object database 12 and the coordinate value H (Xh, Yh) of the center of gravity H of the hand region. Is less than or equal to the threshold value for holding detection. If the distance is not equal to or smaller than the holding detection threshold, the process proceeds to step U9.

距離が保持検出用しきい値以下の場合、ステップU5において、位置変更部22の位置管理機能22aは、手領域の重心Hの座標値H(Xh,Yh)の変化に応じて移動後表示位置データ7を作成する。
ステップU6において、物体ホールド検出部13は、手領域の重心Hの移動加速度の値が負の値であり、かつ移動速度が移動終了検出用しきい値以下か判断する。
When the distance is equal to or smaller than the threshold value for holding detection, in step U5, the position management function 22a of the position changing unit 22 displays the post-movement display position according to the change in the coordinate value H (Xh, Yh) of the center of gravity H of the hand area. Data 7 is created.
In step U6, the object hold detection unit 13 determines whether the value of the movement acceleration of the center of gravity H of the hand region is a negative value and the movement speed is equal to or less than the movement end detection threshold value.

手領域の重心Hの移動加速度の値が負の値であり、かつ移動速度が移動終了検出用しきい値以下という条件が満たされない場合、ステップU7において、位置変更部22の位置管理機能22aは、物体データベース12の表示位置データ6を、移動後表示位置データ7により更新し、その後処理はステップU9に移る。   When the value of the movement acceleration of the center of gravity H of the hand region is a negative value and the condition that the movement speed is equal to or less than the movement end detection threshold value is not satisfied, in step U7, the position management function 22a of the position changing unit 22 The display position data 6 in the object database 12 is updated with the post-movement display position data 7, and the process thereafter proceeds to step U9.

手領域の重心Hの移動加速度の値が負の値であり、移動速度が移動終了検出用しきい値以下の場合、ステップU8において、位置変更部22の位置管理機能22aは、表示位置データ6の更新を終了し、その後処理はステップU9に移る。
ステップU9において、位置変更部22の画面データ作成機能22bは、物体データベース12における物体関連データ4を、表示位置データ6の示す表示位置に表示する投影画像データ9を作成する。
If the value of the movement acceleration of the center of gravity H of the hand region is a negative value and the movement speed is less than or equal to the movement end detection threshold, the position management function 22a of the position changing unit 22 displays the display position data 6 in step U8. Is finished, and then the process proceeds to step U9.
In step U <b> 9, the screen data creation function 22 b of the position changing unit 22 creates the projection image data 9 for displaying the object related data 4 in the object database 12 at the display position indicated by the display position data 6.

ステップU10において、投影画像提供部24は、投影画像データ9をプロジェクタ3に提供し、空間に対して表示する。
ステップU11において、画像投影システム1は、動作終了まで上記ステップU1以下の処理を繰り返す。
本実施の形態では、物体2の移動中においても、物体データベース12の記憶内容を更新でき、移動中の物体2についても物体関連データ4を表示させることができる。
In step U10, the projection image providing unit 24 provides the projection image data 9 to the projector 3 and displays it on the space.
In step U11, the image projection system 1 repeats the processing from step U1 onward until the operation ends.
In the present embodiment, the content stored in the object database 12 can be updated even while the object 2 is moving, and the object related data 4 can be displayed for the moving object 2.

本発明は、プロジェクタを用いて情報を提示する分野に有効である。   The present invention is effective in the field of presenting information using a projector.

本発明の第1の実施の形態に係る画像投影システムの構成の例を示すブロック図。1 is a block diagram showing an example of the configuration of an image projection system according to a first embodiment of the present invention. 物体データベースの記憶内容の例を示す図。The figure which shows the example of the memory content of an object database. 手の重心の座標値と物体関連データの表示位置の座標値との関係の例を示す概念図。The conceptual diagram which shows the example of the relationship between the coordinate value of the gravity center of a hand, and the coordinate value of the display position of object related data. 同実施の形態に係る物体ホールド検出部の処理の例を示すフローチャート。The flowchart which shows the example of a process of the object hold | maintenance detection part which concerns on the embodiment. 同実施の形態に係る位置変更部の処理の例を示すフローチャート。The flowchart which shows the example of a process of the position change part which concerns on the same embodiment. 同実施の形態に係る画像投影システムの投影画像作成装置を、コンピュータとソフトウェアとを用いて実現するための構成の例を示すブロック図。The block diagram which shows the example of a structure for implement | achieving the projection image production apparatus of the image projection system which concerns on the embodiment using a computer and software. 本発明の第2の実施の形態に係る画像投影システムの処理の例を示すフローチャート。The flowchart which shows the example of a process of the image projection system which concerns on the 2nd Embodiment of this invention.

符号の説明Explanation of symbols

1…画像投影システム、2…物体、3…プロジェクタ、4…物体関連データ、4a…内容、5…カメラ、6…表示位置データ、61…作業者の手、7…移動後表示位置データ、8…投影画像作成装置、9…投影画像データ、10…撮影画像データ、11…画像認識部、12…物体データベース、13…物体ホールド検出部、14…画像作成部、15…撮影画像取得部、16…撮影画像データ記憶部、17…手領域検出部、18…手領域データ記憶部、19…重心算出部、20…重心データ記憶部、21…手位置検出部、22…位置変更部、22a…位置管理機能、22b…画像データ作成機能、23…投影画像データ記憶部23…、24…投影画像提供部、25…手領域データ、26…重心データ、27…コンピュータ、28…プロセッサ、29…記憶装置、30…内部バス、31…記憶媒体、32…プログラム   DESCRIPTION OF SYMBOLS 1 ... Image projection system, 2 ... Object, 3 ... Projector, 4 ... Object related data, 4a ... Contents, 5 ... Camera, 6 ... Display position data, 61 ... Hand of operator, 7 ... Display position data after movement, 8 DESCRIPTION OF SYMBOLS ... Projection image production apparatus, 9 ... Projection image data, 10 ... Shooting image data, 11 ... Image recognition part, 12 ... Object database, 13 ... Object hold detection part, 14 ... Image creation part, 15 ... Shooting image acquisition part, 16 ... Photographic image data storage unit, 17... Hand region detection unit, 18... Hand region data storage unit, 19... Centroid calculation unit, 20 ... centroid data storage unit, 21 ... hand position detection unit, 22. Position management function, 22b ... image data creation function, 23 ... projection image data storage unit 23 ..., 24 ... projection image providing unit, 25 ... hand area data, 26 ... centroid data, 27 ... computer, 28 ... processor, 9 ... storage device, 30 ... internal bus 31 ... storage medium, 32 ... Program

Claims (8)

撮影装置によって撮影される空間に配置されている物体に関連する物体関連データとこの物体関連データの表示位置を示す表示位置データとを記憶する物体記憶手段と、
前記撮影装置によって撮影された撮影画像データに基づいて、作業者の手の領域を検出した手領域データを作成する手領域検出手段と、
前記手領域データの示す手領域と前記表示位置データの示す表示位置とに基づいて、前記作業者の手によって前記物体が握られた状態か否かを検出する物体ホールド検出手段と、
前記作業者の手によって前記物体が握られた状態であり、前記手領域データの示す前記手領域が移動した場合に、前記手領域の移動にそって移動後の物体関連データの表示位置を示す移動後表示位置データを作成する位置管理手段と、
前記移動後表示位置データの示す位置に前記物体関連データを表示する投影画像データを作成する画像データ作成手段と
を具備することを特徴とする投影画像作成装置。
Object storage means for storing object-related data related to an object arranged in a space imaged by the imaging device and display position data indicating a display position of the object-related data;
Hand region detection means for creating hand region data that detects the region of the hand of the operator based on the captured image data captured by the imaging device;
Object hold detection means for detecting whether or not the object is held by the operator's hand based on the hand area indicated by the hand area data and the display position indicated by the display position data;
When the object is gripped by the operator's hand and the hand area indicated by the hand area data is moved, the display position of the object-related data after the movement is indicated along with the movement of the hand area. Position management means for creating display position data after movement;
An image data creating means for creating projection image data for displaying the object related data at a position indicated by the display position data after movement.
請求項1記載の投影画像作成装置において、
前記位置管理手段は、前記物体記憶手段に記憶されている前記表示位置データを、前記移動後表示位置データにより更新することを特徴とする投影画像作成装置。
The projection image creation apparatus according to claim 1,
The position management unit updates the display position data stored in the object storage unit with the post-movement display position data.
請求項1又は請求項2記載の投影画像作成装置において、
前記手領域データに基づいて、前記手領域の重心の位置を示す重心データを作成する重心算出手段をさらに具備し、
前記物体ホールド検出手段は、前記重心データの示す前記手領域の重心の位置と、前記表示位置データの示す前記物体関連データの表示位置との距離が所定の保持検出用のしきい値以下の場合に、前記作業者の手によって前記物体が握られた状態と判断する
ことを特徴とする投影画像作成装置。
In the projection image creation device according to claim 1 or 2,
Based on the hand area data, further comprising a center of gravity calculation means for creating center of gravity data indicating the position of the center of gravity of the hand area,
When the distance between the position of the center of gravity of the hand region indicated by the center of gravity data and the display position of the object-related data indicated by the display position data is equal to or less than a predetermined threshold for holding detection In addition, it is determined that the object is held by the hand of the operator.
請求項1乃至請求項3のいずれか1項に記載の投影画像作成装置において、
前記物体ホールド検出手段は、前記手領域データの示す前記手領域の移動加速度が負の値であり、かつ移動速度が所定の移動終了検出用のしきい値以下となった場合に、前記作業者の手によって前記物体が握られた状態が終了したと判断する
ことを特徴とする投影画像作成装置。
In the projection image creation device according to any one of claims 1 to 3,
The object hold detection means is configured to detect the operator when the movement acceleration of the hand area indicated by the hand area data is a negative value and the movement speed is equal to or lower than a predetermined movement end detection threshold. It is determined that the state in which the object is gripped by the hand is finished.
請求項1乃至請求項4のいずれか1項に記載の投影画像作成装置において、
前記位置管理手段は、移動開始時における前記手領域の位置から前記物体関連データの前記表示位置までのベクトルを求め、移動後の手領域の位置と前記ベクトルとに基づいて前記移動後表示位置データを作成する
ことを特徴とする投影画像作成装置。
In the projection image creation device according to any one of claims 1 to 4,
The position management means obtains a vector from the position of the hand area at the start of movement to the display position of the object-related data, and displays the post-movement display position data based on the position of the hand area after movement and the vector. Projection image creation device characterized by creating
コンピュータを、
撮影装置によって撮影される空間に配置されている物体に関連する物体関連データとこの物体関連データの表示位置を示す表示位置データとを記憶する物体記憶手段、
前記撮影装置によって撮影された撮影画像データに基づいて、作業者の手の領域を検出した手領域データを作成し、手領域データ記憶手段に記憶する手領域検出手段、
前記手領域データ記憶手段の手領域データの示す手領域と前記物体記憶手段の表示位置データの示す表示位置とに基づいて、前記作業者の手によって前記物体が握られた状態か否かを検出する物体ホールド検出手段、
前記作業者の手によって前記物体が握られた状態であり、前記手領域データの示す前記手領域が移動した場合に、前記手領域の移動にそって移動後の物体関連データの表示位置を示す移動後表示位置データを作成する位置管理手段、
前記移動後表示位置データの示す位置に前記物体記憶手段の物体関連データを表示する投影画像データを作成し、投影画像データ記憶手段に記憶する画像データ作成手段
として機能させるためのプログラム。
Computer
Object storage means for storing object-related data related to an object arranged in a space imaged by the imaging device and display position data indicating a display position of the object-related data;
Hand area detection means for creating hand area data for detecting the area of the hand of the operator based on the photographed image data photographed by the photographing device, and storing the hand area data in the hand area data storage means;
Based on the hand area indicated by the hand area data of the hand area data storage means and the display position indicated by the display position data of the object storage means, it is detected whether or not the object is held by the operator's hand. Object hold detection means for
When the object is gripped by the operator's hand and the hand area indicated by the hand area data is moved, the display position of the object-related data after the movement is indicated along with the movement of the hand area. Position management means for creating display position data after movement;
A program for creating projection image data for displaying object-related data in the object storage means at a position indicated by the post-movement display position data, and causing the projection image data storage means to function as image data creation means.
コンピュータにより実施される投影画像作成方法において、
撮影装置によって撮影される空間に配置されている物体に関連する物体関連データとこの物体関連データの表示位置を示す表示位置データとを物体記憶手段に記憶し、
前記撮影装置によって撮影された撮影画像データに基づいて、作業者の手の領域を検出した手領域データを作成し、手領域データ記憶手段に記憶し、
前記手領域データ記憶手段の手領域データの示す手領域と前記物体記憶手段の表示位置データの示す表示位置とに基づいて、前記作業者の手によって前記物体が握られた状態か否かを検出し、
前記作業者の手によって前記物体が握られた状態であり、前記手領域データの示す前記手領域が移動した場合に、前記手領域の移動にそって移動後の物体関連データの表示位置を示す移動後表示位置データを作成し、
前記移動後表示位置データの示す位置に前記物体記憶手段の物体関連データを表示する投影画像データを作成し、投影画像データ記憶手段に記憶する
ことを特徴とする投影画像作成方法。
In a projection image creation method implemented by a computer,
Storing object-related data related to an object arranged in a space photographed by the imaging device and display position data indicating a display position of the object-related data in the object storage means;
Based on the photographed image data photographed by the photographing device, create hand region data for detecting the hand region of the operator, and store it in the hand region data storage means,
Based on the hand area indicated by the hand area data of the hand area data storage means and the display position indicated by the display position data of the object storage means, it is detected whether or not the object is held by the operator's hand. And
When the object is gripped by the operator's hand and the hand area indicated by the hand area data is moved, the display position of the object-related data after the movement is indicated along with the movement of the hand area. Create display position data after moving,
Projection image data for displaying object-related data in the object storage unit at a position indicated by the post-movement display position data is generated and stored in the projection image data storage unit.
空間に配置されている物体を撮影する撮影装置と、
前記物体に関連する物体関連データとこの物体関連データの表示位置を示す表示位置データとを記憶する物体記憶手段と、
前記撮影装置によって撮影された撮影画像データに基づいて、作業者の手の領域を検出した手領域データを作成する手領域検出手段と、
前記手領域データの示す手領域と前記表示位置データの示す表示位置とに基づいて、前記作業者の手によって前記物体が握られた状態か否かを検出する物体ホールド検出手段と、
前記作業者の手によって前記物体が握られた状態であり、前記手領域データの示す前記手領域が移動した場合に、前記手領域の移動にそって移動後の物体関連データの表示位置を示す移動後表示位置データを作成する位置管理手段と、
前記移動後表示位置データの示す位置に前記物体関連データを表示する投影画像データを作成する画像データ作成手段と、
前記投影画像データに基づいて前記空間に画像を投影する投影装置と
を具備する画像投影システム。
A photographing device for photographing an object arranged in space;
Object storage means for storing object related data related to the object and display position data indicating a display position of the object related data;
Hand region detection means for creating hand region data that detects the region of the hand of the operator based on the captured image data captured by the imaging device;
Object hold detection means for detecting whether or not the object is held by the operator's hand based on the hand area indicated by the hand area data and the display position indicated by the display position data;
When the object is gripped by the operator's hand and the hand area indicated by the hand area data is moved, the display position of the object-related data after the movement is indicated along with the movement of the hand area. Position management means for creating display position data after movement;
Image data creation means for creating projection image data for displaying the object-related data at a position indicated by the display position data after movement;
An image projection system comprising: a projection device that projects an image onto the space based on the projection image data.
JP2005065844A 2005-03-09 2005-03-09 Projection image creation apparatus, program, projection image creation method, and image projection system Pending JP2006252036A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005065844A JP2006252036A (en) 2005-03-09 2005-03-09 Projection image creation apparatus, program, projection image creation method, and image projection system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005065844A JP2006252036A (en) 2005-03-09 2005-03-09 Projection image creation apparatus, program, projection image creation method, and image projection system

Publications (1)

Publication Number Publication Date
JP2006252036A true JP2006252036A (en) 2006-09-21

Family

ID=37092479

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005065844A Pending JP2006252036A (en) 2005-03-09 2005-03-09 Projection image creation apparatus, program, projection image creation method, and image projection system

Country Status (1)

Country Link
JP (1) JP2006252036A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008287691A (en) * 2007-04-19 2008-11-27 Fuji Xerox Co Ltd Information processing device and program
US8022997B2 (en) 2007-04-19 2011-09-20 Fuji Xerox Co., Ltd. Information processing device and computer readable recording medium
WO2014061310A1 (en) * 2012-10-16 2014-04-24 日本電気株式会社 Display object control system, display object control method, and program
JP2017022782A (en) * 2016-10-20 2017-01-26 ソニー株式会社 Information processor, information processing method and program
US9841847B2 (en) 2014-12-25 2017-12-12 Panasonic Intellectual Property Management Co., Ltd. Projection device and projection method, for projecting a first image based on a position of a moving object and a second image without depending on the position
WO2018087844A1 (en) * 2016-11-09 2018-05-17 三菱電機株式会社 Work recognition device and work recognition method
US10015392B2 (en) 2010-03-04 2018-07-03 Sony Corporation Information processing apparatus, information processing method, and program

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008287691A (en) * 2007-04-19 2008-11-27 Fuji Xerox Co Ltd Information processing device and program
US8022997B2 (en) 2007-04-19 2011-09-20 Fuji Xerox Co., Ltd. Information processing device and computer readable recording medium
US8581993B2 (en) 2007-04-19 2013-11-12 Fuji Xerox Co., Ltd. Information processing device and computer readable recording medium
US10015392B2 (en) 2010-03-04 2018-07-03 Sony Corporation Information processing apparatus, information processing method, and program
US10306136B2 (en) 2010-03-04 2019-05-28 Sony Corporation Information processing apparatus, information processing method, and program
US10659681B2 (en) 2010-03-04 2020-05-19 Sony Corporation Information processing apparatus, information processing method, and program
US11190678B2 (en) 2010-03-04 2021-11-30 Sony Corporation Information processing apparatus, information processing method, and program
WO2014061310A1 (en) * 2012-10-16 2014-04-24 日本電気株式会社 Display object control system, display object control method, and program
US9841847B2 (en) 2014-12-25 2017-12-12 Panasonic Intellectual Property Management Co., Ltd. Projection device and projection method, for projecting a first image based on a position of a moving object and a second image without depending on the position
JP2017022782A (en) * 2016-10-20 2017-01-26 ソニー株式会社 Information processor, information processing method and program
WO2018087844A1 (en) * 2016-11-09 2018-05-17 三菱電機株式会社 Work recognition device and work recognition method
JPWO2018087844A1 (en) * 2016-11-09 2018-12-27 三菱電機株式会社 Work recognition device and work recognition method

Similar Documents

Publication Publication Date Title
JP6687204B2 (en) Projection image generation method and apparatus, and mapping method between image pixels and depth values
JP4508049B2 (en) 360 ° image capturing device
CN110956695B (en) Information processing apparatus, information processing method, and storage medium
CN112287928A (en) A prompting method, device, electronic device and storage medium
JP6497185B2 (en) Autonomous mobile device and control method of autonomous mobile device
CN102448681A (en) Operating space presentation device, operating space presentation method, and program
TW201911133A (en) Controller tracking for multiple degrees of freedom
JP2005250990A (en) Operation support apparatus
JP2011254411A (en) Video projection system and video projection program
JP6126501B2 (en) Camera installation simulator and its computer program
JP2015079444A5 (en)
JP5463584B2 (en) Displacement measuring method, displacement measuring apparatus, and displacement measuring program
JP2015079433A5 (en)
JP2005327204A (en) Image composing system, method, and device
JP2008015573A (en) Image processor, image processing method and image monitoring system
JP2006252036A (en) Projection image creation apparatus, program, projection image creation method, and image projection system
JP2002074347A (en) Information aquiring system
WO2022046227A1 (en) Mixed reality image capture and smart inspection
KR102199772B1 (en) Method for providing 3D modeling data
JP2008015815A (en) Image processor and image processing program
KR20110087407A (en) Camera simulation system and position sensing method using the same
WO2018134866A1 (en) Camera calibration device
CN102713948A (en) Portable terminal, action history depiction method, and action history depiction system
CN113971724A (en) Method for 3D scanning of real objects
JP2019101476A (en) Operation guide system

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080819

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081008

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090203