JP2017112565A - Projection device, projection method and computer program for projection - Google Patents

Projection device, projection method and computer program for projection Download PDF

Info

Publication number
JP2017112565A
JP2017112565A JP2015247405A JP2015247405A JP2017112565A JP 2017112565 A JP2017112565 A JP 2017112565A JP 2015247405 A JP2015247405 A JP 2015247405A JP 2015247405 A JP2015247405 A JP 2015247405A JP 2017112565 A JP2017112565 A JP 2017112565A
Authority
JP
Japan
Prior art keywords
target object
gripping
image
projection
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015247405A
Other languages
Japanese (ja)
Other versions
JP6597277B2 (en
Inventor
源太 鈴木
Genta Suzuki
源太 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2015247405A priority Critical patent/JP6597277B2/en
Publication of JP2017112565A publication Critical patent/JP2017112565A/en
Application granted granted Critical
Publication of JP6597277B2 publication Critical patent/JP6597277B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a projection device capable of improving visibility of a user with respect to an image of a holding target object held by an object that becomes a projection target.SOLUTION: A projection device comprises: an object region detection part 21 for detecting an object region in which a target object is imaged, on a distance image that is obtained during an imaging period; a real space position calculation part 22 for calculating a position of a target object in a real space for each of pixels within the object region, the target object being imaged in that pixel; a tracking part 23 for generating a track data representing a track of the target object in the real space; a hold determination part 24 for identifying a first period in which a holding target object is being held by the target object, based on changes in a height of the holding target object within a holding object region and a height of the object after the track of the target object in the real space passes the holding object region; and a projection control part 26 for causing a projector 13 to project an image of the target object and an image indicating the holding target object that is being held, at mutually different positions on a projection screen during a second period, included in a projection period, corresponding to the first period.SELECTED DRAWING: Figure 3

Description

本発明は、例えば、物体の像を所定の投影面に投影する投影装置、及び、そのような投影装置で利用される投影方法及び投影用コンピュータプログラムに関する。   The present invention relates to, for example, a projection apparatus that projects an image of an object on a predetermined projection plane, and a projection method and a computer program for projection used in such a projection apparatus.

近年、拡張現実感(Augmented Reality, AR)を利用した、作業支援システムが提案されている(例えば、非特許文献1を参照)。非特許文献1に開示されたAR支援システムでは、ユーザが作業する対象の前でカメラをかざすと、その対象を写した映像に対して教師ビデオが重畳表示される。その際、このAR支援システムは、カメラと操作対象の位置関係に応じて、教師ビデオの視線を、カメラで撮影された映像の視線と合わせるために、教師ビデオを適宜変形し、変形された教師ビデオをカメラの映像上に重畳表示する。   In recent years, work support systems that use augmented reality (AR) have been proposed (see, for example, Non-Patent Document 1). In the AR support system disclosed in Non-Patent Document 1, when a user holds a camera in front of a target to be worked on, a teacher video is superimposed and displayed on a video showing the target. At this time, the AR support system appropriately modifies the teacher video in order to match the line of sight of the teacher video with the line of sight of the video captured by the camera in accordance with the positional relationship between the camera and the operation target. The video is superimposed on the camera image.

後藤他、「作業空間への教師ビデオ重畳表示によるAR支援システム」、画像電子学会誌、第39巻、第6号、pp.1108-1120、2010年Goto et al., “AR Support System with Teacher Video Overlay Display in Workspace”, Journal of the Institute of Image Electronics Engineers of Japan, Vol. 39, No. 6, pp.1108-1120, 2010

ここで、教師ビデオを、プロジェクタを用いて所定の投影面に投影することを考える。この場合、非特許文献1に記載の技術のような教師ビデオの変形では、教師ビデオに写っている指導者の手などに把持され得る、工具あるいは部品といった把持対象物体の像が、投影面に載置された作業対象物体上に投影されることがある。しかし、作業対象物体が複雑な構造を有していると、投影された把持対象物体の像がその構造と重畳されるために、その像が非常に見難くなることがある。また、把持対象物体が手などに把持された状態では、把持対象物体の一部が手などで隠されて見えなくなるオクルージョンが生じるので、その状態の把持対象物体の像が投影されても、ユーザは、把持対象物体の全体を理解することが困難となる。   Here, it is assumed that the teacher video is projected onto a predetermined projection plane using a projector. In this case, in the modification of the teacher video as in the technique described in Non-Patent Document 1, an image of an object to be grasped such as a tool or a part that can be grasped by a teacher's hand or the like shown in the teacher video is displayed on the projection plane. It may be projected on the work target object placed. However, if the work target object has a complicated structure, the projected image of the gripping target object is superimposed on the structure, which may make it very difficult to see the image. In addition, in a state where the gripping target object is gripped by a hand or the like, there is an occlusion in which a part of the gripping target object is hidden by the hand or the like, so that even if an image of the gripping target object in that state is projected, the user This makes it difficult to understand the entire object to be grasped.

一つの側面では、本発明は、投影対象となる物体が把持している把持対象物体の像に対するユーザの視認性を向上させることが可能な投影装置を提供することを目的とする。   In one aspect, an object of the present invention is to provide a projection apparatus capable of improving the visibility of a user with respect to an image of a gripping target object held by an object to be projected.

一実施形態によれば、投影装置が提供される。この投影装置は、実空間において把持対象物体が含まれる把持物体領域を記憶する記憶部と、所定の撮像期間中において、距離センサから得た、対象物体と距離センサ間の距離を画素値で表した距離画像において、対象物体が写る物体領域を検出する物体領域検出部と、距離画像において、物体領域内の対象物体に対応する各画素について、その画素に写る対象物体の実空間での位置を算出する実空間位置算出部と、距離画像に対応する、対象物体の実空間での位置に基づいて、対象物体の実空間の軌跡を表す軌跡データを生成する追跡部と、把持物体領域内の把持対象物体の高さと、対象物体の実空間の軌跡が把持物体領域を通過した後の物体の高さとの変化に基づいて、把持対象物体が対象物体により把持されている第1の期間を特定する把持判定部と、第1の期間に対応する、所定の投影期間中の第2の期間において、プロジェクタに、対象物体の像と対象物体により把持されている把持対象物体を示す像とを、投影面上の互いに異なる位置に投影させる投影制御部とを有する。   According to one embodiment, a projection device is provided. This projection apparatus displays a distance between a target object and a distance sensor obtained from a distance sensor as a pixel value during a predetermined imaging period, and a storage unit that stores a gripping object region that includes the gripping target object in real space. In the distance image, an object region detection unit that detects an object region in which the target object is captured, and in the distance image, for each pixel corresponding to the target object in the object region, the position of the target object in the pixel is represented in real space. A real space position calculating unit for calculating, a tracking unit for generating trajectory data representing the trajectory of the target object in real space based on the position of the target object in real space corresponding to the distance image, The first period in which the gripping target object is gripped by the target object is identified based on the change between the height of the gripping target object and the height of the target object after the trajectory of the target object passes through the gripping object region. You In the second period of the predetermined projection period corresponding to the first period, the image of the target object and the image indicating the target object held by the target object are projected onto the projector. A projection control unit for projecting to different positions on the surface.

投影対象となる物体が把持している把持対象物体の像に対するユーザの視認性を向上させることができる。   The visibility of the user with respect to the image of the gripping target object gripped by the object to be projected can be improved.

一つの実施形態による投影装置のハードウェア構成図である。It is a hardware block diagram of the projection apparatus by one Embodiment. 一つの実施形態による投影装置の距離センサ、カメラ及びプロジェクタと追跡対象物体の像が投影される投影面の位置関係の一例を示す図である。It is a figure which shows an example of the positional relationship of the projection surface by which the image of the distance sensor of the projection apparatus, camera, projector, and tracking target object by one Embodiment is projected. 一つの実施形態による制御部の機能ブロック図である。It is a functional block diagram of a control part by one embodiment. 距離センサ座標系と世界座標系の関係を示す図である。It is a figure which shows the relationship between a distance sensor coordinate system and a world coordinate system. 把持物体領域の一例を示す図である。It is a figure which shows an example of a holding | grip object area | region. 軌跡データの一例を示す図である。It is a figure which shows an example of locus data. 把持判定の概要の説明図である。It is explanatory drawing of the outline | summary of a grip determination. 把持判定処理の動作フローチャートである。It is an operation | movement flowchart of a holding | grip determination process. (a)は、何れの把持対象物体も把持されていない場合における、投影面の模式図である。(b)は、何れかの把持対象物体が追跡対象物体により把持されている場合における、投影面の模式図である。(A) is a schematic diagram of a projection plane when no gripping target object is gripped. (B) is a schematic diagram of a projection plane when any gripping target object is gripped by a tracking target object. 投影処理の動作フローチャートである。It is an operation | movement flowchart of a projection process. 変形例による、制御部の機能ブロック図である。It is a functional block diagram of a control part by a modification. (a)は、把持物体領域に物体が存在しない場合における、投影面の模式図である。(b)は、把持物体領域に、把持されている把持対象物体と異なる物体が存在する場合における、投影面の模式図である。(c)は、把持物体領域に、把持されている把持対象物体と同じ把持対象物体が存在する場合における、投影面の模式図である。(A) is a schematic diagram of a projection surface when no object exists in the gripping object region. (B) is a schematic diagram of a projection surface when an object different from the gripping target object being gripped exists in the gripping object region. (C) is a schematic diagram of the projection plane when the same gripping target object as the gripped target object is present in the gripping object region.

以下、図面を参照しつつ、投影装置について説明する。この投影装置は、検知範囲内に位置する物体までの距離を測定可能な距離センサで、追跡対象となる物体(以下、追跡対象物体と呼ぶ)を一定期間にわたって継続して撮影する。この投影装置は、その撮影中に得られる複数の距離画像のそれぞれから、その追跡対象物体の実空間での位置を求める。そしてこの投影装置は、追跡対象物体の実空間での位置変化の軌跡が追跡対象物体が把持し得る物体が含まれる領域を通過する前後でのその領域内の物体の高さの変化に基づいて、追跡対象物体が把持対象物体を把持している期間を特定する。なお、追跡対象物体が把持し得る物体を、以下では、把持対象物体と呼ぶ。そしてこの投影装置は、各距離画像から得られる追跡対象物体の像を、その距離画像の撮影順に従ってプロジェクタにより投影する際に、追跡対象物体が把持対象物体を把持している間、その把持対象物体の像も、追跡対象物体の像と異なる位置に投影する。   Hereinafter, the projection apparatus will be described with reference to the drawings. This projection apparatus is a distance sensor that can measure the distance to an object located within a detection range, and continuously captures an object to be tracked (hereinafter referred to as a tracking target object) over a certain period. The projection apparatus obtains the position of the tracking target object in real space from each of a plurality of distance images obtained during the photographing. The projection apparatus is based on the change in the height of the object in the region before and after the locus of the position change in the real space of the tracking target object passes through the region including the object that the tracking target object can hold. The period during which the tracking target object is gripping the gripping target object is specified. An object that can be gripped by the tracking target object is hereinafter referred to as a gripping target object. Then, when projecting the image of the tracking target object obtained from each distance image by the projector according to the shooting order of the distance image, the projection apparatus holds the gripping target object while the tracking target object grips the gripping target object. The image of the object is also projected at a position different from the image of the tracking target object.

本実施形態では、投影装置は、作業台の上で一連の作業を指導者が実行する間に撮影された複数の距離画像のそれぞれから、指導者の手を追跡対象物体として検出する。そして本実施形態では、指導者の手により把持される工具、あるいは、部品を把持対象物体とする。そして投影装置は、ユーザにその作業を指導する際に、教師ビデオとして、距離画像の取得順序に従って、各距離画像から検出された手の像をプロジェクタにより投影面に順次投影する。なお、指導者による一連の作業についての距離センサによる撮影の実行期間を、以下では、単に撮像期間と呼び、プロジェクタによる教師ビデオの投影の実行期間を、以下では、単に投影期間と呼ぶ。   In the present embodiment, the projection apparatus detects the leader's hand as a tracking target object from each of a plurality of distance images taken while the leader performs a series of operations on the work table. In this embodiment, a tool or a part gripped by the instructor's hand is set as a gripping target object. Then, when instructing the user to perform the work, the projection apparatus sequentially projects the hand image detected from each distance image on the projection plane as a teacher video according to the distance image acquisition order. In the following, the execution period of photographing by the distance sensor for a series of work by the instructor is simply referred to as an imaging period, and the execution period of the teacher video projection by the projector is hereinafter simply referred to as a projection period.

図1は、一つの実施形態による投影装置のハードウェア構成図である。図2は、一つの実施形態による投影装置の距離センサ、カメラ及びプロジェクタと追跡対象物体の像が投影される投影面の位置関係の一例を示す図である。投影装置1は、距離センサ11と、カメラ12と、プロジェクタ13と、記憶部14と、制御部15とを有する。そして距離センサ11、カメラ12、プロジェクタ13、及び記憶部14は、それぞれ、制御部15と信号線を介して接続される。また、投影装置1は、投影装置1を他の機器と接続するための通信インターフェース(図示せず)をさらに有していてもよい。   FIG. 1 is a hardware configuration diagram of a projection apparatus according to an embodiment. FIG. 2 is a diagram illustrating an example of a positional relationship between a distance sensor, a camera, and a projector of a projection apparatus according to an embodiment and a projection plane onto which an image of a tracking target object is projected. The projection device 1 includes a distance sensor 11, a camera 12, a projector 13, a storage unit 14, and a control unit 15. The distance sensor 11, the camera 12, the projector 13, and the storage unit 14 are connected to the control unit 15 via signal lines, respectively. Further, the projection apparatus 1 may further include a communication interface (not shown) for connecting the projection apparatus 1 to other devices.

距離センサ11は、距離測定部の一例であり、図2に示されるように、例えば、ユーザが作業する作業台の表面100の少なくとも一部が検知範囲に含まれるように、プロジェクタ13の投影方向へ向けて取り付けられる。距離センサ11は、撮像期間において、一定の周期(例えば、30フレーム/秒〜60フレーム/秒)ごとに、検知範囲の距離画像を生成する。そして距離センサ11は、生成した距離画像を制御部15へ出力する。そのために、距離センサ11は、例えば、デプスカメラとすることができる。距離画像は、例えば、画素ごとに、その画素の値により、距離センサ11からその画素に写っている追跡対象物体101等までの距離を表す。例えば、距離センサ11から距離画像中の画素に写っている追跡対象物体101の点までの距離が近いほど、その画素の値は大きくなる。   The distance sensor 11 is an example of a distance measurement unit, and as illustrated in FIG. 2, for example, the projection direction of the projector 13 so that at least a part of the surface 100 of the work table on which the user works is included in the detection range. It is attached toward. The distance sensor 11 generates a distance image of the detection range at regular intervals (for example, 30 frames / second to 60 frames / second) during the imaging period. Then, the distance sensor 11 outputs the generated distance image to the control unit 15. Therefore, the distance sensor 11 can be a depth camera, for example. The distance image represents, for example, the distance from the distance sensor 11 to the tracking target object 101 or the like shown in the pixel for each pixel by the value of the pixel. For example, the closer the distance from the distance sensor 11 to the point of the tracking target object 101 shown in the pixel in the distance image, the larger the value of that pixel.

カメラ12は、撮像部の一例である。カメラ12は、例えば、作業台の表面100、追跡対象物体101及び作業台の表面100に載置された作業対象物体102、及び、追跡対象物体101が把持する可能性が有る把持対象物体103がカメラ12の撮影範囲に含まれるように取り付けられる。カメラ12は、撮像期間中において、一定の周期(例えば、30フレーム/秒〜60フレーム/秒)ごとに、画像を生成する。そしてカメラ12は、画像を生成する度に、その生成した画像を制御部15へ出力する。あるいは、カメラ12は、追跡対象物体がカメラ12の撮影範囲内に存在せず、かつ、作業対象物体102及び全ての把持対象物体103が作業台の表面100に載置されている状態で、その撮影範囲を1回だけ撮影してもよい。
なお、カメラ12により生成される画像はグレー画像であってもよく、あるいは、カラー画像であってもよい。本実施形態では、カメラ12は、カラー画像を生成するものとする。
The camera 12 is an example of an imaging unit. The camera 12 includes, for example, a work surface 100, a tracking target object 101, a work target object 102 placed on the work surface 100, and a gripping target object 103 that the tracking target object 101 may grip. It is attached so as to be included in the shooting range of the camera 12. The camera 12 generates an image at regular intervals (for example, 30 frames / second to 60 frames / second) during the imaging period. The camera 12 outputs the generated image to the control unit 15 every time an image is generated. Alternatively, the camera 12 is configured so that the tracking target object does not exist within the imaging range of the camera 12 and the work target object 102 and all the gripping target objects 103 are placed on the surface 100 of the workbench. The shooting range may be shot only once.
Note that the image generated by the camera 12 may be a gray image or a color image. In the present embodiment, it is assumed that the camera 12 generates a color image.

プロジェクタ13は、投影部の一例であり、図2に示されるように、投影面へ向けて映像を投影するように設置される。本実施形態では、投影面は、作業台の表面100、あるいは、作業対象物体102の表面に設定される。したがって、プロジェクタ13は、その作業台の上方に、鉛直下方へ向けて取り付けられる。
プロジェクタ13は、例えば、液晶プロジェクタであり、制御部15から受け取った映像信号に従って映像をその表示面に表示することで、映像を投影する。本実施形態では、プロジェクタ13は、追跡対象物体101の像を投影面に投影する。また、プロジェクタ13は、撮像期間中において何れかの把持対象物体103が把持されている期間(すなわち、第1の期間)に対応する、投影期間中の期間(すなわち、第2の期間)において、把持されている把持対象物体103を示す像を投影面に投影する。
The projector 13 is an example of a projection unit, and is installed so as to project an image toward a projection surface as shown in FIG. In the present embodiment, the projection plane is set on the surface 100 of the work table or the surface of the work target object 102. Therefore, the projector 13 is attached vertically above the work table.
The projector 13 is a liquid crystal projector, for example, and projects an image by displaying the image on the display surface in accordance with the image signal received from the control unit 15. In the present embodiment, the projector 13 projects an image of the tracking target object 101 on the projection plane. Further, the projector 13 has a period during the projection period (that is, the second period) corresponding to a period during which any of the gripping target objects 103 is gripped during the imaging period (that is, the first period). An image indicating the gripped target object 103 is projected onto the projection plane.

記憶部14は、例えば、揮発性又は不揮発性の半導体メモリ回路を有する。そして記憶部14は、距離センサ11により得られた距離画像、カメラ12により得られた画像、及び、プロジェクタ13により投影される映像を表す映像信号などを記憶する。さらに、記憶部14は、投影処理で利用される様々な情報、例えば、世界座標系における、距離センサ11の設置位置及び向き、距離画像に含まれる画素数、距離センサ11の対角視野角などを記憶する。同様に、記憶部14は、世界座標系における、カメラ12及びプロジェクタ13の設置位置及び向き、カメラ12の画素数及びプロジェクタ13の表示面の画素数及び対角視野角などを記憶する。さらに、記憶部14は、投影処理の途中で生成される各種のデータ、例えば、軌跡データを記憶する。   The storage unit 14 includes, for example, a volatile or non-volatile semiconductor memory circuit. The storage unit 14 stores a distance image obtained by the distance sensor 11, an image obtained by the camera 12, a video signal representing an image projected by the projector 13, and the like. Furthermore, the storage unit 14 stores various information used in the projection processing, for example, the installation position and orientation of the distance sensor 11 in the world coordinate system, the number of pixels included in the distance image, the diagonal viewing angle of the distance sensor 11, and the like. Remember. Similarly, the storage unit 14 stores the installation position and orientation of the camera 12 and the projector 13 in the world coordinate system, the number of pixels of the camera 12, the number of pixels on the display surface of the projector 13, and the diagonal viewing angle. Further, the storage unit 14 stores various data generated during the projection process, for example, trajectory data.

制御部15は、一つまたは複数のプロセッサ及びその周辺回路を有する。そして制御部15は、投影装置1全体を制御する。   The control unit 15 includes one or a plurality of processors and their peripheral circuits. And the control part 15 controls the projection apparatus 1 whole.

以下、制御部15により実行される、投影処理に関する構成要素の詳細について説明する。
図3は、制御部15の機能ブロック図である。制御部15は、把持物体領域設定部20と、物体領域検出部21と、実空間位置算出部22と、追跡部23と、把持判定部24と、表示領域算出部25と、投影制御部26とを有する。
制御部15が有するこれらの各部は、例えば、制御部15が有するプロセッサ上で実行されるコンピュータプログラムによって実現される機能モジュールとして実装される。あるいは、これらの各部の機能を実現する一つまたは複数の集積回路が、制御部15とは別個に投影装置1に実装されてもよい。
Hereinafter, details of components related to the projection processing executed by the control unit 15 will be described.
FIG. 3 is a functional block diagram of the control unit 15. The control unit 15 includes a gripping object region setting unit 20, an object region detection unit 21, a real space position calculation unit 22, a tracking unit 23, a gripping determination unit 24, a display region calculation unit 25, and a projection control unit 26. And have.
Each of these units included in the control unit 15 is implemented as a functional module realized by a computer program executed on a processor included in the control unit 15, for example. Alternatively, one or a plurality of integrated circuits that realize the functions of these units may be mounted on the projection apparatus 1 separately from the control unit 15.

以下、制御部15の各部の処理を、撮像期間についての処理と投影期間についての処理とに分けて説明する。   Hereinafter, the processing of each unit of the control unit 15 will be described separately for the processing for the imaging period and the processing for the projection period.

(撮像期間)
把持物体領域設定部20は、追跡対象物体により把持されていないときに把持対象物体が含まれる実空間の領域である把持物体領域を実空間において設定する。
(Imaging period)
The gripping object region setting unit 20 sets a gripping object region in the real space, which is a real space region including the gripping target object when it is not gripped by the tracking target object.

そのために、把持物体領域設定部20は、例えば、追跡対象物体が距離センサ11の検知範囲内に存在しておらず、全ての把持対象物体が作業台上に載置されているときに距離センサ11により得られた距離画像から、把持対象物体が写っている領域を検出する。例えば、把持物体領域設定部20は、距離画像上の各画素について、その画素の値と、距離センサ11により作業台を撮影した場合に得られる基準距離画像上の対応画素の値とを比較する。なお、基準距離画像は、予め記憶部14に保存される。把持物体領域設定部20は、距離画像の画素の値と基準距離画像の対応画素の値の差の絶対値が所定の閾値以上となる画素を抽出する。なお、所定の閾値は、例えば、1cm〜2cmに相当する距離画像上の画素値とすることができる。   For this reason, the gripping object region setting unit 20 is configured so that, for example, when the tracking target object does not exist within the detection range of the distance sensor 11 and all the gripping target objects are placed on the workbench, 11 is detected from the distance image obtained in step 11. For example, the gripping object region setting unit 20 compares the value of each pixel on the distance image with the value of the corresponding pixel on the reference distance image obtained when the work table is photographed by the distance sensor 11. . Note that the reference distance image is stored in the storage unit 14 in advance. The gripping object region setting unit 20 extracts pixels in which the absolute value of the difference between the pixel value of the distance image and the corresponding pixel value of the reference distance image is equal to or greater than a predetermined threshold value. The predetermined threshold value can be a pixel value on the distance image corresponding to 1 cm to 2 cm, for example.

把持物体領域設定部20は、抽出された画素に対して、例えば、ラベリング処理を実行して、抽出された画素をグループ化することで、それぞれが抽出された画素を含み、かつ、互いに分離した1以上の候補領域を求める。なお、把持物体領域設定部20は、距離画像中で作業対象物体が写っていると想定される範囲に含まれる候補領域は、把持対象物体とは無関係であるとして、その候補領域を削除してもよい。そして把持物体領域設定部20は、各候補領域のうち、その候補領域に含まれる画素数が把持対象物体のサイズに相当する所定の範囲内に含まれる候補領域に、把持対象物体が写っていると判定する。   The gripping object region setting unit 20 executes, for example, a labeling process on the extracted pixels, and groups the extracted pixels so that each pixel includes the extracted pixels and is separated from each other. Find one or more candidate regions. Note that the gripping object region setting unit 20 deletes the candidate region, assuming that the candidate region included in the range in which the work target object is assumed to be captured in the distance image is irrelevant to the gripping target object. Also good. Then, the gripping object region setting unit 20 shows the gripping target object in a candidate region included in a predetermined range in which the number of pixels included in each candidate region corresponds to the size of the gripping target object. Is determined.

把持物体領域設定部20は、把持対象物体が写っていると判定した候補領域に対応する実空間上の領域を把持物体領域として設定する。そのために、把持物体領域設定部20は、例えば、把持対象物体が写っていると判定した候補領域内の各画素に対応する把持対象物体上の点の実空間での位置を算出する。そこで先ず、把持物体領域設定部20は、着目する画素について、その画素に写っている把持対象物体の点の距離センサ座標系での位置を算出する。距離センサ座標系は、距離センサ11を基準とする、実空間での座標系である。そして把持物体領域設定部20は、距離センサ座標系で表された、着目する画素に対応する把持対象物体の点の座標を、作業台の表面を基準とする世界座標系の座標に変換する。   The gripping object region setting unit 20 sets a region in the real space corresponding to the candidate region that is determined to include the gripping target object as the gripping object region. For this purpose, the gripping object region setting unit 20 calculates, for example, the position in real space of a point on the gripping target object corresponding to each pixel in the candidate region that is determined that the gripping target object is captured. First, the gripping object region setting unit 20 calculates the position of the point of the gripping target object reflected in the pixel in the distance sensor coordinate system for the pixel of interest. The distance sensor coordinate system is a coordinate system in real space with the distance sensor 11 as a reference. Then, the gripping object region setting unit 20 converts the coordinates of the point of the gripping target object corresponding to the pixel of interest, expressed in the distance sensor coordinate system, into coordinates in the world coordinate system based on the surface of the work table.

図4は、距離センサ座標系と世界座標系の関係を示す図である。距離センサ座標系400では、Zd軸は、距離センサ11の光軸と平行な方向に設定され、Xd軸及びYd軸は、Zd軸と直交する面、すなわち、距離センサ11のセンサ面と平行な面において、互いに直交するように設定される。例えば、Xd軸は、距離画像における水平方向に対応する方向に設定され、Yd軸は、距離画像における垂直方向に対応する方向に設定される。そして距離センサ座標系400の原点は、距離センサ11のセンサ面の中心、すなわわち、センサ面と光軸とが交差する点に設定される。   FIG. 4 is a diagram showing the relationship between the distance sensor coordinate system and the world coordinate system. In the distance sensor coordinate system 400, the Zd axis is set in a direction parallel to the optical axis of the distance sensor 11, and the Xd axis and the Yd axis are parallel to the plane perpendicular to the Zd axis, that is, the sensor surface of the distance sensor 11. In the plane, they are set to be orthogonal to each other. For example, the Xd axis is set in a direction corresponding to the horizontal direction in the distance image, and the Yd axis is set in a direction corresponding to the vertical direction in the distance image. The origin of the distance sensor coordinate system 400 is set to the center of the sensor surface of the distance sensor 11, that is, the point where the sensor surface and the optical axis intersect.

一方、世界座標系410は、作業台の表面100上に、互いに直交する二つの軸Xw軸、Yw軸が設定され、Zw軸は、作業台の表面100の法線方向と平行となるように設定される。また世界座標系410の原点は、例えば、作業台の表面100上で、プロジェクタ13の投影範囲の一端、あるいは、投影範囲の中心に設定される。なお、距離センサ11と作業台の表面100の位置関係は既知である。すなわち、距離センサ座標系400上の任意の点の座標は、アフィン変換によって世界座標系410の座標に変換可能である。   On the other hand, in the world coordinate system 410, two axes Xw axis and Yw axis orthogonal to each other are set on the surface 100 of the workbench, and the Zw axis is parallel to the normal direction of the surface 100 of the workbench. Is set. The origin of the world coordinate system 410 is set, for example, at one end of the projection range of the projector 13 or the center of the projection range on the surface 100 of the work table. The positional relationship between the distance sensor 11 and the work surface 100 is already known. That is, the coordinates of an arbitrary point on the distance sensor coordinate system 400 can be converted to the coordinates of the world coordinate system 410 by affine transformation.

把持物体領域設定部20は、着目する画素について、その画素に写っている把持対象物体の点の距離センサ座標系での座標(Xd,Yd,Zd)を、次式に従って算出する。
(1)式は、ピンホールカメラモデルに従った式であり、fdは、距離センサ11の焦点距離を表し、DW及びDHは、それぞれ、距離画像の水平方向画素数及び垂直方向画素数を表す。またDfovDは、距離センサ11の対角視野角を表す。そして(xd,yd)は、距離画像上での水平方向の位置及び垂直方向の位置を表す。また、Zdは、距離画像上の画素(xd,yd) に対応する位置にある追跡対象物体の点と距離センサ11間の距離であり、その画素(xd,yd)の値に基づいて算出される。
The gripping object region setting unit 20 calculates the coordinates (X d , Y d , Z d ) in the distance sensor coordinate system of the point of the gripping target object shown in the pixel for the pixel of interest according to the following equation.
Equation (1) is an equation according to the pinhole camera model, f d represents the focal length of the distance sensor 11, and DW and DH respectively represent the number of horizontal pixels and the number of vertical pixels of the distance image. Represent. DfovD represents the diagonal viewing angle of the distance sensor 11. (X d , y d ) represents a horizontal position and a vertical position on the distance image. Z d is the distance between the point of the tracking target object at the position corresponding to the pixel (x d , y d ) on the distance image and the distance sensor 11, and the value of the pixel (x d , y d ) Is calculated based on

さらに、把持物体領域設定部20は、着目する画素について、その画素に写っている把持対象物体の点の距離センサ座標系での座標を、次式に従って世界座標系での座標(XW,YW,ZW)に変換する。
ここでRDWは、距離センサ座標系から世界座標系へのアフィン変換に含まれる、回転量を表す回転行列であり、tDWは、そのアフィン変換に含まれる平行移動量を表す平行移動ベクトルである。そしてDLocX、DLocY、DLocZは、それぞれ、世界座標系のXw軸方向、Yw軸方向、Zw軸方向における、距離センサ11のセンサ面の中心の座標、すなわち、距離センサ座標系の原点の座標である。またDRotX、DRotY、DRotZは、それぞれ、Xw軸、Yw軸、Zw軸に対する、距離センサ11の光軸方向の回転角度を表す。
Further, the gripping object region setting unit 20 determines the coordinates in the distance sensor coordinate system of the point of the gripping target object that is reflected in the pixel of interest in the coordinate system (X W , Y W , Z W ).
Here, R DW is a rotation matrix representing the rotation amount included in the affine transformation from the distance sensor coordinate system to the world coordinate system, and t DW is a translation vector representing the translation amount included in the affine transformation. is there. DLocX, DLocY, and DLocZ are the coordinates of the center of the sensor surface of the distance sensor 11 in the Xw axis direction, the Yw axis direction, and the Zw axis direction of the world coordinate system, that is, the coordinates of the origin of the distance sensor coordinate system, respectively. . DRotX, DRotY, and DRotZ represent rotation angles in the optical axis direction of the distance sensor 11 with respect to the Xw axis, the Yw axis, and the Zw axis, respectively.

把持物体領域設定部20は、(1)式及び(2)式に従って、把持対象物体が写っていると判定した候補領域内の各画素に対応する把持対象物体の点の実空間での位置を算出する。これにより、実空間での把持対象物体の位置及び範囲が求められる。そして把持物体領域設定部20は、世界座標系のXwYw平面にて、把持対象物体の外接矩形を、把持物体領域として設定する。   The gripping object region setting unit 20 determines the position in real space of the point of the gripping target object corresponding to each pixel in the candidate region that is determined to include the gripping target object according to the formulas (1) and (2). calculate. As a result, the position and range of the object to be grasped in real space are obtained. Then, the gripping object region setting unit 20 sets a circumscribed rectangle of the gripping target object as the gripping object region on the XwYw plane of the world coordinate system.

図5は、把持物体領域の一例を示す図である。図5に示されるように、把持物体領域510は、Xw軸に平行な辺とYw軸に平行な辺を持ち、かつ、把持対象物体500に外接する矩形領域として設定される。なお、把持物体領域510は、把持対象物体500の外接楕円として設定されてもよく、あるいは、XwYw平面における、把持対象物体500が存在する領域そのものであってもよい。   FIG. 5 is a diagram illustrating an example of a gripping object region. As shown in FIG. 5, the gripping object region 510 is set as a rectangular region that has a side parallel to the Xw axis and a side parallel to the Yw axis and circumscribes the gripping target object 500. Note that the gripping object region 510 may be set as a circumscribed ellipse of the gripping target object 500, or may be the region itself where the gripping target object 500 exists on the XwYw plane.

さらに、把持物体領域設定部20は、追跡対象物体が距離センサ11の検知範囲内に存在しておらず、全ての把持対象物体が作業台上に載置されているときにカメラ12により得られた画像上で、把持対象物体ごとに、その把持物体領域に対応する領域を特定する。そして把持物体領域設定部20は、把持対象物体ごとに、その画像から、把持物体領域に対応する領域を切り出して、その把持対象物体を表す把持物体画像として、対応する把持物体領域とともに記憶部14に保存する。   Further, the gripping object region setting unit 20 is obtained by the camera 12 when the tracking target object does not exist within the detection range of the distance sensor 11 and all the gripping target objects are placed on the work table. The region corresponding to the gripping object region is specified for each gripping target object on the captured image. Then, the gripping object region setting unit 20 cuts out a region corresponding to the gripping object region from the image for each gripping target object, and stores it as a gripping object image representing the gripping target object together with the corresponding gripping object region. Save to.

把持物体画像を作成するために、把持物体領域設定部20は、着目する把持物体領域の各コーナーの実空間の位置の座標を、世界座標系の座標からカメラ座標系の座標に変換する。その際、把持物体領域設定部20は、各コーナーについて、そのコーナーの世界座標系での座標(XW,YW,ZW)を、次式に従って、カメラ座標系上の座標 (XC,YC,ZC)に変換する。
ここでRWCは、世界座標系からカメラ座標系へのアフィン変換に含まれる、回転量を表す回転行列であり、tWCは、そのアフィン変換に含まれる平行移動量を表す平行移動ベクトルである。また、RCWは、カメラ座標系から世界座標系へのアフィン変換に含まれる回転行列であり、tCWは、そのアフィン変換に含まれる平行移動量を表す平行移動ベクトルである。CLocX、CLocY、CLocZは、それぞれ、世界座標系のXw軸方向、Yw軸方向、Zw軸方向における、カメラ12のイメージセンサの中心の座標、すなわち、カメラ座標系の原点の座標である。またCRotX、CRotY、CRotZは、それぞれ、Xw軸、Yw軸、Zw軸に対する、カメラ12の光軸方向の回転角度を表す。
In order to create a gripping object image, the gripping object region setting unit 20 converts the coordinates of the real space position of each corner of the gripping object region of interest from the coordinates of the world coordinate system to the coordinates of the camera coordinate system. At that time, the gripping object region setting unit 20 sets the coordinates (X W , Y W , Z W ) of the corners in the world coordinate system for each corner according to the following equations (X C , Y C , Z C )
Here, R WC is a rotation matrix that represents the amount of rotation included in the affine transformation from the world coordinate system to the camera coordinate system, and t WC is a translation vector that represents the amount of translation included in the affine transformation. . R CW is a rotation matrix included in the affine transformation from the camera coordinate system to the world coordinate system, and t CW is a translation vector representing the translation amount included in the affine transformation. CLocX, CLocY, and CLocZ are the coordinates of the center of the image sensor of the camera 12 in the Xw-axis direction, the Yw-axis direction, and the Zw-axis direction of the world coordinate system, that is, the coordinates of the origin of the camera coordinate system, respectively. CRotX, CRotY, and CRotZ represent rotation angles in the optical axis direction of the camera 12 with respect to the Xw axis, the Yw axis, and the Zw axis, respectively.

把持物体領域設定部20は、把持物体領域ごとに、その把持物体領域の各コーナーについてのカメラ座標系での座標(XC,YC,ZC)に対応する、カメラ12により得られる画像上の画素の座標(xc,yc)を、次式に従って特定する。
ここで、fcは、カメラ12の焦点距離を表し、CW及びCHは、それぞれ、カメラ12により得られる画像の水平方向画素数及び垂直方向画素数を表す。またCfovDは、カメラ12の対角視野角を表す。
For each gripping object region, the gripping object region setting unit 20 corresponds to the coordinates (X C , Y C , Z C ) in the camera coordinate system for each corner of the gripping object region on the image obtained by the camera 12. The coordinates (x c , y c ) of the pixel are specified according to the following equation.
Here, fc represents the focal length of the camera 12, and CW and CH represent the number of horizontal pixels and the number of vertical pixels of the image obtained by the camera 12, respectively. CfovD represents the diagonal viewing angle of the camera 12.

把持物体領域設定部20は、把持物体領域ごとに、その把持物体領域の各コーナーに対応する画像上の4点で囲まれた領域を、把持物体画像として画像から切り出す。   For each gripping object region, the gripping object region setting unit 20 cuts out from the image a region surrounded by four points on the image corresponding to each corner of the gripping object region as a gripping object image.

物体領域検出部21は、撮像期間中、距離センサ11から制御部15が取得した各距離画像から、追跡対象物体が写っている領域である物体領域を検出する。本実施形態では、物体領域検出部21は、各距離画像に対して同一の処理を実行するので、以下では、一つの距離画像に対する処理について説明する。   The object area detection unit 21 detects an object area that is an area in which the tracking target object is captured from each distance image acquired by the control unit 15 from the distance sensor 11 during the imaging period. In the present embodiment, the object region detection unit 21 executes the same process for each distance image, and therefore, the process for one distance image will be described below.

例えば、物体領域検出部21は、距離画像上の各画素について、その画素の値と、基準距離画像上の対応画素の値とを比較する。物体領域検出部21は、距離画像の画素の値と基準距離画像の対応画素の値の差の絶対値が所定の閾値以上となる画素を抽出する。   For example, the object region detection unit 21 compares the value of each pixel on the distance image with the value of the corresponding pixel on the reference distance image. The object region detection unit 21 extracts pixels in which the absolute value of the difference between the pixel value of the distance image and the corresponding pixel value of the reference distance image is equal to or greater than a predetermined threshold value.

物体領域検出部21は、抽出された画素に対して、例えば、ラベリング処理を実行して、抽出された画素をグループ化することで、それぞれが抽出された画素を含み、かつ、互いに分離した1以上の候補領域を求める。そして物体領域検出部21は、1以上の候補領域のうち、その候補領域に含まれる画素数が最大となる候補領域を物体領域とする。なお、指導者の両方の手が距離画像に写っていることもあるので、物体領域検出部21は、その候補領域に含まれる画素数が多い方から順に二つの候補領域を、それぞれ、物体領域としてもよい。あるいはまた、物体領域検出部21は、含まれる画素数が所定の画素数以上となる候補領域が存在しない場合には、距離画像には物体領域が含まれない、すなわち、距離画像に追跡対象物体が写っていないと判定してもよい。   The object region detection unit 21 executes, for example, a labeling process on the extracted pixels, and groups the extracted pixels, thereby including the extracted pixels and separating them from each other. The above candidate areas are obtained. Then, the object region detection unit 21 sets a candidate region having the maximum number of pixels included in the candidate region among the one or more candidate regions as the object region. Since both hands of the instructor may be shown in the distance image, the object region detection unit 21 selects two candidate regions in order from the one with the largest number of pixels included in the candidate region. It is good. Alternatively, the object region detection unit 21 does not include the object region in the distance image when there is no candidate region in which the number of pixels included is equal to or greater than the predetermined number of pixels, that is, the tracking target object is included in the distance image. It may be determined that is not shown.

物体領域検出部21は、距離画像上の物体領域を実空間位置算出部22へ通知する。   The object region detection unit 21 notifies the real space position calculation unit 22 of the object region on the distance image.

実空間位置算出部22は、距離センサ11から制御部15が取得した各距離画像から検出された物体領域に含まれる各画素について、その画素に写っている追跡対象物体の点の実空間での位置を算出する。本実施形態では、実空間位置算出部22は、各距離画像に対して同一の処理を実行するので、以下では、一つの距離画像に対する処理について説明する。   For each pixel included in the object region detected from each distance image acquired from the distance sensor 11 by the control unit 15 from the distance sensor 11, the real space position calculation unit 22 in the real space of the point of the tracking target object reflected in the pixel. Calculate the position. In the present embodiment, the real space position calculation unit 22 executes the same process for each distance image, and therefore, the process for one distance image will be described below.

実空間位置算出部22は、先ず、物体領域に含まれる各画素について、その画素に写っている追跡対象物体の点の距離センサ座標系での位置を算出する。そして実空間位置算出部22は、距離センサ座標系で表された、各画素に対応する追跡対象物体の点の座標を、世界座標系の座標に変換する。   First, for each pixel included in the object region, the real space position calculation unit 22 calculates the position in the distance sensor coordinate system of the point of the tracking target object shown in the pixel. Then, the real space position calculation unit 22 converts the coordinates of the point of the tracking target object corresponding to each pixel expressed in the distance sensor coordinate system into coordinates in the world coordinate system.

実空間位置算出部22は、物体領域に含まれる各画素について、その画素に写っている追跡対象物体の点の距離センサ座標系での座標(Xd,Yd,Zd)を、(1)式に従って算出する。さらに、実空間位置算出部22は、物体領域に含まれる各画素について、その画素に写っている追跡対象物体の点の距離センサ座標系での座標を、(2)式に従って世界座標系での座標(XW,YW,ZW)に変換する。 For each pixel included in the object region, the real space position calculation unit 22 calculates the coordinates (X d , Y d , Z d ) in the distance sensor coordinate system of the point of the tracking target object reflected in the pixel as (1 ) Calculate according to the formula. Further, the real space position calculation unit 22 calculates, for each pixel included in the object region, the coordinates in the distance sensor coordinate system of the point of the tracking target object reflected in the pixel in the world coordinate system according to the equation (2). Convert to coordinates (X W , Y W , Z W ).

このように、実空間位置算出部22は、物体領域に含まれる各画素に写っている追跡対象物体の点の実空間での位置を算出することで、その追跡対象物体の実空間での実際のサイズに応じた範囲及び位置を求めることができる。
実空間位置算出部22は、物体領域に対応する追跡対象物体の各点の世界座標系での座標を追跡部23及び表示領域算出部25へ通知する。
Thus, the real space position calculation unit 22 calculates the actual position of the tracking target object in the real space by calculating the position of the point of the tracking target object shown in each pixel included in the object region in the real space. A range and a position corresponding to the size of can be obtained.
The real space position calculation unit 22 notifies the tracking unit 23 and the display region calculation unit 25 of the coordinates in the world coordinate system of each point of the tracking target object corresponding to the object region.

追跡部23は、撮影期間中、実空間での追跡対象物体の位置の変化を追跡して、追跡対象物体の位置変化の軌跡をもとめる。例えば、追跡部23は、各距離画像について、その距離画像から検出された物体領域中の所定の点に対応する実空間の位置を求め、その位置を距離画像の生成順に並べることで、追跡対象物体の位置変化の軌跡を表す軌跡データを生成する。例えば、追跡部23は、追跡対象物体である手の先端、あるいは、手が把持している把持対象物体の先端を、所定の点とすることができる。例えば、世界座標系と指導者の位置関係から、手の先端、あるいは、手が把持している把持対象物体の先端が、物体領域に対応する実空間での領域における、世界座標系でのYw軸に沿った座標値の最大値に対応することが想定されるとする。この場合、追跡部23は、各距離画像について、その距離画像から検出された物体領域に対応する実空間での領域における、Yw軸に沿った座標値の最大値を持つ点の世界座標系での座標及び対応する距離センサ座標系での座標を軌跡データに含めればよい。あるいはまた、追跡部23は、物体領域に対応する実空間での領域のうち、Yw軸方向の最大値に対応する点から、Yw軸方向に沿って所定範囲(例えば、5cm〜10cm)以内にある部分領域の重心を所定の点としてもよい。この場合も、追跡部23は、各距離画像に対応するその所定の点の世界座標系での座標及び対応する距離センサ座標系での座標を軌跡データに含めればよい。   The tracking unit 23 tracks the change in the position of the tracking target object in the real space during the shooting period, and obtains the locus of the position change of the tracking target object. For example, for each distance image, the tracking unit 23 obtains a position in the real space corresponding to a predetermined point in the object region detected from the distance image, and arranges the position in the order of generation of the distance image, thereby tracking target Trajectory data representing the trajectory of the position change of the object is generated. For example, the tracking unit 23 can set the tip of the hand that is the tracking target object or the tip of the gripping target object held by the hand as the predetermined point. For example, based on the positional relationship between the world coordinate system and the instructor, the tip of the hand or the tip of the object to be grasped that the hand holds is Yw in the world coordinate system in the real space region corresponding to the object region. Suppose that it is assumed to correspond to the maximum coordinate value along the axis. In this case, the tracking unit 23 uses, for each distance image, the world coordinate system of the point having the maximum coordinate value along the Yw axis in the real space region corresponding to the object region detected from the distance image. And the corresponding coordinates in the distance sensor coordinate system may be included in the trajectory data. Alternatively, the tracking unit 23 is within a predetermined range (for example, 5 cm to 10 cm) along the Yw axis direction from the point corresponding to the maximum value in the Yw axis direction in the real space area corresponding to the object area. The center of gravity of a certain partial area may be set as a predetermined point. Also in this case, the tracking unit 23 may include the coordinates of the predetermined point corresponding to each distance image in the world coordinate system and the corresponding coordinates in the distance sensor coordinate system in the trajectory data.

なお、各距離画像から複数の物体領域が検出されている場合、追跡部23は、オプティカルフローといった追跡処理を各物体領域に適用することで、同じ追跡対象物体に対応する物体領域を特定してもよい。また、追跡対象物体が手である場合は、右手と左手とが交差することは想定しなくてもよい。そこで、追跡部23は、作業台の中心よりも左側に相当する距離画像上の範囲に含まれる物体領域を、左手が含まれる物体領域と判定し、一方、作業台の中心よりも右側に相当する距離画像上の範囲に含まれる物体領域を、右手が含まれる物体領域と判定してもよい。そして追跡部23は、追跡対象物体ごとに、軌跡データを生成する。   When a plurality of object regions are detected from each distance image, the tracking unit 23 specifies an object region corresponding to the same tracking target object by applying a tracking process such as an optical flow to each object region. Also good. Moreover, when the tracking target object is a hand, it is not necessary to assume that the right hand and the left hand intersect each other. Therefore, the tracking unit 23 determines that the object area included in the range on the distance image corresponding to the left side of the center of the work table is the object area including the left hand, and corresponds to the right side of the center of the work table. The object region included in the range on the distance image to be determined may be determined as the object region including the right hand. Then, the tracking unit 23 generates trajectory data for each tracking target object.

図6は、軌跡データの一例を示す図である。軌跡データ600は、距離画像の取得時刻を表すタイムスタンプ601ごとに、追跡対象物体が右手か左手かを表す手ID602と、距離センサ座標系での物体領域の先端の座標603及び世界座標系での物体領域の先端の座標604を含む。   FIG. 6 is a diagram illustrating an example of trajectory data. The trajectory data 600 includes a hand ID 602 indicating whether the tracking target object is the right hand or the left hand, a coordinate 603 of the tip of the object area in the distance sensor coordinate system, and a world coordinate system for each time stamp 601 indicating the acquisition time of the distance image. Including the coordinates 604 of the tip of the object region.

追跡部23は、追跡対象物体ごとに生成した軌跡データを記憶部14に保存する。   The tracking unit 23 stores the trajectory data generated for each tracking target object in the storage unit 14.

把持判定部24は、各距離画像について、軌跡データ、把持物体領域及び把持物体領域内の高さ情報に基づいて、追跡対象物体が把持対象物体を把持している期間を求める。   The gripping determination unit 24 obtains a period during which the tracking target object is gripping the gripping target object for each distance image based on the trajectory data, the gripping object region, and the height information in the gripping object region.

追跡対象物体が把持対象物体を把持する際には、追跡対象物体は、把持対象物体と重なる位置へ移動すると想定される。さらに、追跡対象物体が把持対象物体を把持した後では、元々把持対象物体が載置されていた領域から把持対象物体が無くなるため、その領域において、距離センサ11からの距離、すなわち、作業台の表面からの高さが変化すると想定される。そこで把持判定部24は、軌跡データを参照して、把持物体領域と追跡対象物体とが重なったか否か判定する。そして把持判定部24は、追跡対象物体が把持物体領域と重なる前後で、すなわち、追跡対象物体の軌跡が把持物体領域を通過した前後で、把持物体領域内の物体の作業台表面からの高さが変化したか否かを判定する。把持判定部24は、例えば、把持物体領域内で作業台の表面から最も高い位置、あるいは、把持物体領域内で作業台の表面からの高さの平均値を、その把持物体領域内の物体の作業台の表面からの高さとする。把持判定部24は、把持対象物体が把持されていない状態にて、追跡対象物体が把持物体領域と重なる前の高さよりも、把持物体領域と重なった後の高さが所定値以上低くなっていれば、把持判定部24は、把持対象物体が把持されたと判定する。なお、所定値は、例えば、1cm〜3cmに設定される。また、所定値は、把持対象物体の実際のサイズに応じて設定されてもよい。また、複数の把持対象物体が有る場合、把持対象物体ごとに、その把持対象物体に対応する把持物体領域と関連付けて、その把持対象物体のサイズに応じた所定値が設定されてもよい。   When the tracking target object grips the gripping target object, the tracking target object is assumed to move to a position overlapping the gripping target object. Furthermore, after the tracking target object grips the gripping target object, the gripping target object disappears from the area where the gripping target object was originally placed, so in that area, the distance from the distance sensor 11, that is, the work table It is assumed that the height from the surface changes. Therefore, the grip determination unit 24 refers to the trajectory data and determines whether or not the grip object region and the tracking target object overlap. The grip determination unit 24 then sets the height of the object in the gripping object region from the surface of the work table before and after the tracking target object overlaps the gripping object region, that is, before and after the trajectory of the tracking target object passes through the gripping object region. It is determined whether or not has changed. For example, the gripping determination unit 24 calculates the highest position from the surface of the work table in the gripping object region or the average value of the height from the surface of the worktable in the gripping object region. The height from the surface of the workbench. In the state where the gripping target object is not gripped, the gripping determination unit 24 has a height that is lower than the height before the tracking target object overlaps the gripping object region by a predetermined value or more. Then, the grip determination unit 24 determines that the grip target object is gripped. The predetermined value is set to 1 cm to 3 cm, for example. The predetermined value may be set according to the actual size of the object to be grasped. When there are a plurality of gripping target objects, a predetermined value corresponding to the size of the gripping target object may be set for each gripping target object in association with the gripping object region corresponding to the gripping target object.

図7は、把持判定の概要の説明図である。この例では、作業台の表面100に4個の把持物体領域701〜704が設定されている。また軌跡705は、撮影期間中の追跡対象物体の軌跡を表す。この例では、軌跡705は、把持物体領域702及び704と重なっている。そのため、把持物体領域702に載置されている把持対象物体または把持物体領域704に載置されている把持対象物体が、追跡対象物体により把持された可能性が有る。そこで、把持物体領域702及び704について、追跡対象物体の軌跡がその把持物体領域と重なる前後で、把持物体領域内の物体の作業台の表面100からの高さが変化したか否かが判定される。そしてこの例では、把持物体領域704について、追跡対象物体の軌跡がその把持物体領域と重なる前後で、把持物体領域704内の物体の作業台の表面100からの高さが変化している。そのため、把持物体領域704に載置された把持対象物体が把持されたと判定される。   FIG. 7 is an explanatory diagram of an outline of grip determination. In this example, four gripping object regions 701 to 704 are set on the surface 100 of the work table. A locus 705 represents the locus of the tracking target object during the shooting period. In this example, the trajectory 705 overlaps the gripping object areas 702 and 704. For this reason, there is a possibility that the gripping target object placed in the gripping object region 702 or the gripping target object placed in the gripping object region 704 is gripped by the tracking target object. Therefore, for the gripping object regions 702 and 704, it is determined whether or not the height of the object in the gripping object region from the surface 100 of the work table has changed before and after the trace of the tracking target object overlaps the gripping object region. The In this example, with respect to the gripping object region 704, the height of the object in the gripping object region 704 from the surface 100 of the work table changes before and after the trace of the tracking target object overlaps the gripping object region. Therefore, it is determined that the gripping target object placed in the gripping object region 704 has been gripped.

また、把持判定部24は、追跡対象物体が一旦把持したと判定した把持対象物体について、追跡対象物体の軌跡がその把持対象物体に対応する把持物体領域と重なった後に、もう一度把持物体領域内の物体の作業台の表面からの高さの変化を調べてもよい。そして把持判定部24は、把持対象物体が把持されている状態にて、追跡対象物体が把持物体領域と重なる前の高さよりも、把持物体領域と重なった後の高さが所定値以上高くなっていれば、把持判定部24は、把持対象物体が載置されたと判定すればよい。この場合、把持対意匠物体が追跡対象物体により把持されたと判定されたときから、把持対象物体が載置されたと判定されるまでの期間が、把持対象物体が追跡対象物体により把持されている期間となる。   In addition, the gripping determination unit 24 once again determines that the tracking target object has been gripped once, after the trajectory of the tracking target object overlaps the gripping object region corresponding to the gripping target object. Changes in the height of the object from the surface of the work table may be examined. The grip determination unit 24, when the grip target object is gripped, has a height higher than a predetermined value by the height after the tracking target object overlaps the grip object area than the height before the trace target object overlaps the grip object area. If so, the grip determination unit 24 may determine that the grip target object is placed. In this case, the period from when it is determined that the gripping design object is gripped by the tracking target object to when it is determined that the gripping target object is placed is the period during which the gripping target object is gripped by the tracking target object It becomes.

図8は、把持判定処理の動作フローチャートである。なお、把持判定部24は、追跡対象物体ごとに、この動作フローチャートに従って把持判定処理を実行する。   FIG. 8 is an operation flowchart of the grip determination process. The grip determination unit 24 executes grip determination processing according to this operation flowchart for each tracking target object.

把持判定部24は、軌跡データから最初の撮影時刻における追跡対象物体の世界座標系での位置を取得する。また、把持判定部24は、各把持対象物体について、把持されているか否かを表すフラグGrabbed(m)(m=1,2,...,N、Nは把持対象物体の総数)を、把持されていない状態を表すFalseに設定する。さらに、把持判定部24は、追跡対象物体が把持物体領域に入ったか否かを表すフラグHandInAreaを、追跡対象物体が何れの把持物体領域にもいないことを表すFalseに設定する(ステップS101)。   The grip determination unit 24 acquires the position of the tracking target object in the world coordinate system at the first shooting time from the trajectory data. Further, the gripping determination unit 24 sets a flag Grabbed (m) (m = 1, 2,..., N, N is the total number of gripping target objects) indicating whether or not each gripping target object is gripped. Set to False, which represents the state of not being gripped. Furthermore, the grip determination unit 24 sets a flag HandInArea indicating whether or not the tracking target object has entered the gripping object region to False indicating that the tracking target object is not in any gripping object region (step S101).

把持判定部24は、追跡対象物体の位置が何れかの把持物体領域内に位置するか否か判定する(ステップS102)。追跡対象物体の位置がm番目の把持物体領域内に位置する場合(ステップS102−Yes)、把持判定部24は、現在の把持対象物体を表すフラグObjectNumをmに設定する。さらに、把持判定部24は、フラグHandInAreaを、追跡対象物体が何れかの把持物体領域に入ったことを表すTrueに設定する(ステップS103)。   The grip determination unit 24 determines whether or not the position of the tracking target object is located in any gripping object region (step S102). When the position of the tracking target object is located within the m-th gripping object region (step S102—Yes), the gripping determination unit 24 sets a flag ObjectNum representing the current gripping target object to m. Furthermore, the grip determination unit 24 sets the flag HandInArea to True indicating that the tracking target object has entered any gripping object region (step S103).

一方、追跡対象物体の位置が何れの把持物体領域内にもいない場合(ステップS102−No)、把持判定部24は、フラグHandInAreaがTrueか否か判定する(ステップS104)。フラグHandInAreaがTrueである場合(ステップS104−Yes)、追跡対象物体は、一旦何れかの把持物体領域に入ってからその把持物体領域を出たと想定される。そこで、把持判定部24は、計時を開始するとともに、フラグHandInAreaをFalseに戻す(ステップS105)。   On the other hand, when the position of the tracking target object is not in any gripping object region (step S102—No), the gripping determination unit 24 determines whether or not the flag HandInArea is True (step S104). When the flag HandInArea is True (step S104—Yes), it is assumed that the tracking target object has once entered any gripping object region and then exits the gripping object region. Therefore, the grip determination unit 24 starts timing and returns the flag HandInArea to False (step S105).

把持判定部24は、計時中か否か判定する。計時中である場合、ObjectNumで示されるm番目の把持物体領域内の物体の作業台の表面からの高さが、追跡対象物体がその把持物体領域に入る前における、その把持物体領域内の物体の作業台の表面からの高さから変化したか否か判定する(ステップS106)。把持判定部24は、例えば、追跡対象物体が把持物体領域内に入る前の高さと把持物体領域から出た後の高さの差が所定値以上変化していれば、把持物体領域内の物体の作業台の表面からの高さが変化したと判定してもよい。また、把持判定部24は、Grabbed(ObjectNum)がFalseかTrueかに応じて、把持物体領域内の物体の作業台の表面からの高さが変化したか否かの判定条件を変えてもよい。すなわち、Grabbed(ObjectNum)がFalseである場合、ObjectNumで特定される把持対象物体が把持されていない。この場合、上記のように、把持判定部24は、追跡対象物体が把持物体領域と重なる前の高さよりも、把持物体領域と重なった後の高さが所定値以上低くなっていれば、把持物体領域内の物体の作業台の表面からの高さが変化したと判定する。一方、Grabbed(ObjectNum)がTrueである場合、ObjectNumで特定される把持対象物体が把持されている。この場合、上記のように、把持判定部24は、追跡対象物体が把持物体領域と重なる前の高さよりも、把持物体領域と重なった後の高さが所定値以上高くなっていれば、把持物体領域内の物体の作業台の表面からの高さが変化したと判定する。   The grip determination unit 24 determines whether or not the time is being measured. When the time is being measured, the height of the object in the mth gripping object area indicated by ObjectNum from the work surface is the object in the gripping object area before the tracking target object enters the gripping object area. It is determined whether or not the height has changed from the height of the work table (step S106). For example, if the difference between the height before the tracking target object enters the gripping object area and the height after the tracking target object exits the gripping object area changes by a predetermined value or more, the gripping determination unit 24 changes the object in the gripping object area. It may be determined that the height from the surface of the work table has changed. Further, the gripping determination unit 24 may change the determination condition as to whether or not the height of the object in the gripping object region from the surface of the work table has changed according to whether Grabbed (ObjectNum) is False or True. . That is, when Grabbed (ObjectNum) is False, the gripping target object specified by ObjectNum is not gripped. In this case, as described above, if the height after the tracking target object overlaps the gripping object region is lower than the height before the tracking target object overlaps the gripping object region, the gripping determination unit 24 It is determined that the height of the object in the object area from the surface of the work table has changed. On the other hand, when Grabbed (ObjectNum) is True, the gripping target object specified by ObjectNum is gripped. In this case, as described above, if the height after the tracking target object overlaps the gripping object region is higher than the height before the tracking target object overlaps the gripping object region, the gripping determination unit 24 It is determined that the height of the object in the object area from the surface of the work table has changed.

把持判定部24は、計時中であり、かつ、追跡対象物体が把持物体領域内に入るまでと出た後とで高さが変化していれば(ステップS106−Yes)、フラグGrabbed(ObjectNum)がFalseか否か判定する(ステップS107)。そしてフラグGrabbed(ObjectNum)がFalseである場合(ステップS107−Yes)、把持判定部24は、フラグGrabbed(ObjectNum)を、把持対象物体が把持されている状態であることを表すTrueに書き換える(ステップS108)。一方、Grabbed(ObjectNum)がTrueである場合(ステップS107−No)、把持判定部24は、フラグGrabbed(ObjectNum)をFalseに書き換える(ステップS109)。   If the grip determination unit 24 is measuring time and the height has changed between before and after the tracking target object enters the gripped object region (step S106—Yes), the flag Grabbed (ObjectNum) Is determined to be False (step S107). If the flag Grabbed (ObjectNum) is False (step S107—Yes), the grip determination unit 24 rewrites the flag Grabbed (ObjectNum) to True indicating that the gripping target object is being gripped (step S107). S108). On the other hand, when Grabbed (ObjectNum) is True (step S107—No), the grip determination unit 24 rewrites the flag Grabbed (ObjectNum) to False (step S109).

一方、ステップS106において計時中でないか、あるいは、追跡対象物体が把持物体領域内に入る前後で高さが変化していなければ(ステップS106−No)、把持判定部24は、計時開始から所定時間が経過したか否か判定する(ステップS110)。なお、所定時間は、例えば、追跡対象物体が、作業台上に載置されている把持対象物体を把持するのに要する時間、例えば、3秒〜5秒に設定される。そして計時開始から所定時間が経過した場合(ステップS110−Yes)、把持判定部24は、計時を終了し、計時時間を0にリセットする。また把持判定部24は、フラグObjectNumを何れの把持対象物体も表さないNULLに設定する(ステップS111)。   On the other hand, if it is not timed in step S106 or if the height does not change before and after the tracking target object enters the gripping object region (step S106-No), the gripping determination unit 24 performs a predetermined time from the start of timekeeping. It is determined whether or not elapses (step S110). The predetermined time is set to, for example, a time required for the tracking target object to grip the gripping target object placed on the work table, for example, 3 to 5 seconds. When a predetermined time has elapsed from the start of time measurement (step S110-Yes), the grip determination unit 24 ends time measurement and resets the time measurement time to zero. In addition, the gripping determination unit 24 sets the flag ObjectNum to NULL that does not represent any gripping target object (step S111).

ステップS108、S109、あるいはS111の後、把持判定部24は、全てのObjectNum(1≦ObjectNum≦N)について、Grabbed(ObjectNum)を現撮影時刻と対応付けて記憶部14に保存する(ステップS112)。   After step S108, S109, or S111, the grip determination unit 24 stores Grabbed (ObjectNum) in association with the current shooting time for all ObjectNum (1 ≦ ObjectNum ≦ N) in the storage unit 14 (step S112). .

その後、把持判定部24は、軌跡データが終了したか否か判定する(ステップS113)。軌跡データが終了していない場合(ステップS113−No)、把持判定部24は、軌跡データから次の撮影時刻における追跡対象物体の世界座標系での位置を取得する(ステップS114)。そして把持判定部24は、ステップS102以降の処理を繰り返す。一方、軌跡データが終了した場合、すなわち、軌跡データ中に含まれる全ての撮影時刻について、追跡対象物体の位置が取得されている場合(ステップS113−Yes)、把持判定部24は、把持判定処理を終了する。   Thereafter, the grip determination unit 24 determines whether or not the trajectory data has been completed (step S113). If the trajectory data has not ended (step S113-No), the gripping determination unit 24 acquires the position of the tracking target object in the world coordinate system at the next shooting time from the trajectory data (step S114). Then, the grip determination unit 24 repeats the processes after step S102. On the other hand, when the trajectory data is completed, that is, when the positions of the tracking target objects have been acquired for all shooting times included in the trajectory data (step S113-Yes), the grip determination unit 24 performs the grip determination process. Exit.

以上により、撮影期間中の各距離画像の撮影時における、追跡対象物体の実空間での位置、及び、何れかの把持対象物体が把持されているか否かを表す情報が得られる。   As described above, information indicating the position of the tracking target object in the real space and whether or not any gripping target object is gripped at the time of capturing each distance image during the capturing period is obtained.

(投影期間)
次に、投影期間における処理について説明する。投影期間において、制御部15は、撮影期間中に得られた各距離画像の撮影順序に従って、その距離画像から得られた物体領域に相当する実空間での投影面上での位置に、プロジェクタ13により追跡対象物体の像を投影させる。さらに、制御部15は、撮像期間中において何れかの把持対象物体が把持されている期間に対応する、投影期間中の一部の期間において、その把持対象物体を示す像も、プロジェクタ13により投影面上に投影させる。
(Projection period)
Next, processing in the projection period will be described. In the projection period, the control unit 15 places the projector 13 at a position on the projection plane in the real space corresponding to the object region obtained from the distance image according to the photographing order of each distance image obtained during the photographing period. To project an image of the tracking target object. Further, the control unit 15 projects an image indicating the gripping target object by the projector 13 during a part of the projection period corresponding to a period during which any gripping target object is gripped during the imaging period. Project onto the surface.

表示領域算出部25は、プロジェクタ13により、追跡対象物体の像を投影面に投影する際の、プロジェクタ13の表示面上での追跡対象物体の像の範囲を表す表示領域を算出する。さらに、表示領域算出部25は、何れかの把持対象物体が追跡対象物体により把持されている間、プロジェクタ13の表示面上でのその把持対象物体を示す像を表示する第2の表示領域を算出する。   The display area calculation unit 25 calculates a display area representing the range of the image of the tracking target object on the display surface of the projector 13 when the projector 13 projects the image of the tracking target object on the projection plane. Further, the display area calculation unit 25 displays a second display area for displaying an image indicating the gripping target object on the display surface of the projector 13 while any gripping target object is gripped by the tracking target object. calculate.

なお、表示領域算出部25は、撮影期間中の各距離画像に対して同一の処理を実行するので、以下では、一つの距離画像に対する処理について説明する。   Note that the display area calculation unit 25 executes the same process for each distance image during the shooting period, and therefore, the process for one distance image will be described below.

本実施形態では、プロジェクタ13は、投影面上での追跡対象物体の像のサイズが追跡対象物体の実際のサイズと一致するように追跡対象物体の像を投影する。そこで、表示領域算出部25は、物体領域に対応する追跡対象物体の各点について、その点の実空間での位置を表す世界座標系での座標(XW,YW,ZW)のうち、Zw軸方向の座標値ZWを、投影面の高さZW'に置換する。これにより、仮想的に、追跡対象物体が投影面上にシフトされる。なお、投影面は、作業台の表面(Zw'=0)、あるいは、作業台上に載置されている作業対象物体の表面とすることができる。投影面を作業対象物体の表面とする場合、表示領域算出部25は、投影面の高さとして、作業対象物体を撮影して得られた距離画像において、作業対象物体が写っている画素に対応する世界座標系のZw軸方向の座標を、(1)式及び(2)式に従って算出すればよい。 In the present embodiment, the projector 13 projects the image of the tracking target object so that the size of the image of the tracking target object on the projection surface matches the actual size of the tracking target object. Therefore, the display area calculation unit 25, for each point of the tracking target object corresponding to the object area, out of the coordinates (X W , Y W , Z W ) in the world coordinate system representing the position of the point in real space. The coordinate value Z W in the Zw axis direction is replaced with the height Z W ′ of the projection plane. Thereby, the tracking target object is virtually shifted onto the projection plane. The projection plane can be the surface of the work table (Z w ′ = 0) or the surface of the work target object placed on the work table. When the projection plane is the surface of the work target object, the display area calculation unit 25 corresponds to the pixel in which the work target object is shown in the distance image obtained by photographing the work target object as the height of the projection plane. What is necessary is just to calculate the coordinate of the Zw-axis direction of the world coordinate system to perform according to (1) Formula and (2) Formula.

表示領域算出部25は、シフト後の追跡対象物体の各点について、その点の世界座標系での座標(XW,YW,ZW')に相当するプロジェクタ13の表示面上の座標を算出する。ここで、プロジェクタ13と投影面の位置関係も既知である。そのため、世界座標系上の任意の点の座標は、アフィン変換により、プロジェクタ13を基準とするプロジェクタ座標系上の座標に変換可能である。なお、プロジェクタ座標系は、例えば、距離センサ座標系と同様に、プロジェクタ13の表示面の中心を原点とし、プロジェクタ13の光軸方向、及び、光軸方向と直交する平面上で互いに直交する二つの方向を、それぞれ軸とする座標系とすることができる。 The display area calculation unit 25 calculates the coordinates on the display surface of the projector 13 corresponding to the coordinates (X W , Y W , Z W ′) of each point of the tracking target object after the shift in the world coordinate system. calculate. Here, the positional relationship between the projector 13 and the projection surface is also known. Therefore, the coordinates of an arbitrary point on the world coordinate system can be converted into coordinates on the projector coordinate system based on the projector 13 by affine transformation. Note that the projector coordinate system is, for example, similar to the distance sensor coordinate system, with the center of the display surface of the projector 13 as the origin, and the two orthogonal to the optical axis direction of the projector 13 and the plane orthogonal to the optical axis direction. One direction can be a coordinate system with each axis as an axis.

表示領域算出部25は、追跡対象物体の各点について、その点の世界座標系での座標(XW,YW,ZW')を、次式に従って、プロジェクタ座標系上の座標(XP,YP,ZP)に変換する。
ここでRWPは、世界座標系からプロジェクタ座標系へのアフィン変換に含まれる、回転量を表す回転行列であり、tWPは、そのアフィン変換に含まれる平行移動量を表す平行移動ベクトルである。PLocX、PLocY、PLocZは、それぞれ、世界座標系のXw軸方向、Yw軸方向、Zw軸方向における、プロジェクタ13の表示面の中心の座標、すなわち、プロジェクタ座標系の原点の座標である。またPRotX、ProtY、ProtZは、それぞれ、Xw軸、Yw軸、Zw軸に対する、プロジェクタ13の光軸方向の回転角度を表す。なお、本実施形態では、プロジェクタ13は、鉛直下方へ向けて取り付けられているので、回転行列RWPは、対角成分のみが'1'の値を持ち、他の成分が'0'の値を持つ行列となる。
Display area calculating unit 25, for each point of the tracked object, the coordinates in the world coordinate system of the point (X W, Y W, Z W ') , was prepared in accordance with the following equation, the coordinates of the projector coordinate system (X P , Y P , Z P ).
Here, R WP is a rotation matrix that represents the amount of rotation included in the affine transformation from the world coordinate system to the projector coordinate system, and t WP is a translation vector that represents the amount of translation included in the affine transformation. . PLocX, PLocY, and PLocZ are the coordinates of the center of the display surface of the projector 13 in the Xw-axis direction, the Yw-axis direction, and the Zw-axis direction of the world coordinate system, that is, the coordinates of the origin of the projector coordinate system. PRotX, ProtY, and ProtZ represent rotation angles in the optical axis direction of the projector 13 with respect to the Xw axis, the Yw axis, and the Zw axis, respectively. In this embodiment, since the projector 13 is mounted vertically downward, the rotation matrix R WP has a value of “1” only for the diagonal component and a value of “0” for the other components. Is a matrix with

さらに、表示領域算出部25は、追跡対象物体の各点について、ピンホールモデルに従って、その点のプロジェクタ座標系での座標(XP,YP,ZP)に対応する、プロジェクタ13の表示面上での座標(xp,yp)を、次式に従って算出する。
ここで、fpは、プロジェクタ13の焦点距離を表し、PW及びPHは、それぞれ、表示面の水平方向画素数及び垂直方向画素数を表す。またPfovDは、プロジェクタ13の対角視野角を表す。
Further, the display area calculation unit 25 displays the display surface of the projector 13 corresponding to the coordinates (X P , Y P , Z P ) of each point of the tracking target object in the projector coordinate system according to the pinhole model. The above coordinates (x p , y p ) are calculated according to the following equation.
Here, fp represents the focal length of the projector 13, and PW and PH represent the number of horizontal pixels and the number of vertical pixels on the display surface, respectively. PfovD represents the diagonal viewing angle of the projector 13.

また、表示領域算出部25は、各距離画像について、その距離画像の撮影時刻に対応付けて記憶部14に保存されているフラグGrabbed(ObjectNum)を参照して、ObjectNumで表される把持対象物体が把持されているか否か判定する。そして表示領域算出部25は、ObjectNumで表される把持対象物体が把持されている場合、その把持対象物体に対応する把持物体領域に対応する、プロジェクタ13の表示領域上の第2の表示領域を(5)式及び(6)式に従って算出する。   Further, the display area calculation unit 25 refers to the flag Grabbed (ObjectNum) stored in the storage unit 14 in association with the shooting time of the distance image for each distance image, and holds the target object represented by ObjectNum. It is determined whether or not is held. Then, when the gripping target object represented by ObjectNum is gripped, the display area calculation unit 25 selects the second display area on the display area of the projector 13 corresponding to the gripping object area corresponding to the gripping target object. It calculates according to (5) Formula and (6) Formula.

表示領域算出部25は、表示領域及び第2の表示領域を投影制御部26へ通知する。   The display area calculation unit 25 notifies the projection control unit 26 of the display area and the second display area.

投影制御部26は、プロジェクタ13の表示面上の表示領域に追跡対象物体の像を表示することで、投影面に追跡対象物体の像を投影する。その際、投影制御部26は、例えば、表示領域内の各画素の値を、予め設定された所定の値とする。   The projection control unit 26 projects the image of the tracking target object on the projection surface by displaying the image of the tracking target object in the display area on the display surface of the projector 13. At that time, for example, the projection control unit 26 sets the value of each pixel in the display area to a predetermined value set in advance.

ただし、プロジェクタ13による投影像は、投影面上に半透過の2次元画像として投影されるので、投影面上にある実際の物の高さと追跡対象物体の高さの差がユーザにとって認知し難い。そのため、ユーザは、追跡対象物体が、投影面上にある物に触れているか否か、あるいは、追跡対象物体が空中にあるのか否かを識別することは困難なことがある。   However, since the projection image by the projector 13 is projected as a translucent two-dimensional image on the projection surface, it is difficult for the user to recognize the difference between the height of the actual object on the projection surface and the height of the tracking target object. . For this reason, it may be difficult for the user to identify whether the tracking target object is touching an object on the projection plane or whether the tracking target object is in the air.

そこで、変形例によれば、投影制御部26は、撮像時における、距離センサ11から追跡対象物体までの距離、あるいは、投影面から追跡対象物体までの高さに応じて、プロジェクタ13の表示領域内の画素の値を調節してもよい。例えば、投影制御部26は、プロジェクタ13が追跡対象物体をグレースケールで表示する場合、表示領域内の各画素の輝度値を、次式に従って決定してもよい。
ここで、Zwは、表示領域内の着目する画素に対応する、追跡対象物体の点の投影面からの高さ(例えば、mm単位の値)を表し、Lvは、着目する画素の輝度値を表す。あるいは、投影制御部26は、(7)式の代わりに、次式に従って、表示領域内の各画素の輝度値を決定してもよい。
ここで、Zmaxは、投影面に対する追跡対象物体の高さの想定される最大値を表す。
Therefore, according to the modification, the projection control unit 26 displays the display area of the projector 13 according to the distance from the distance sensor 11 to the tracking target object or the height from the projection surface to the tracking target object at the time of imaging. The value of the pixel inside may be adjusted. For example, when the projector 13 displays the tracking target object in gray scale, the projection control unit 26 may determine the luminance value of each pixel in the display area according to the following equation.
Here, Z w represents the height (for example, a value in mm) of the point of the tracking target object corresponding to the pixel of interest in the display area, and L v is the luminance of the pixel of interest. Represents a value. Alternatively, the projection control unit 26 may determine the luminance value of each pixel in the display area according to the following equation instead of the equation (7).
Here, Z max represents an assumed maximum value of the height of the tracking target object with respect to the projection plane.

あるいはまた、投影制御部26は、プロジェクタ13の表示面上の表示領域内の画素の値を、次式に従って設定してもよい。
ここでR,G,Bは、それぞれ、画素の赤色成分、緑色成分、青色成分の値である。またAは、透明度を表すアルファ値である。またZwは、その画素に対応する、追跡対象物体の点の世界座標系での作業台表面からの高さを表す。そしてZaveWは、物体領域のYw軸方向の先端、すなわち、追跡対象物体の先端から、Yw軸方向に沿って所定範囲(例えば、150mm)内に存在する追跡対象物体の各点の世界座標系での作業台表面からの高さの平均値を表す。またZsurfaceWは、物体領域のYw軸方向の先端から、Yw軸方向に沿って所定範囲(例えば、150mm)内となる、物体領域内の各点のXw軸方向の平均値及びYw軸方向の平均値における、投影面(例えば、作業対象物体の表面)の高さを表す。そしてα、βは、それぞれ、定数であり、例えば、α=1.2、β=128に設定される。
Alternatively, the projection control unit 26 may set the value of the pixel in the display area on the display surface of the projector 13 according to the following equation.
Here, R, G, and B are the values of the red component, green component, and blue component of the pixel, respectively. A is an alpha value representing transparency. Z w represents the height of the point of the tracking target object corresponding to the pixel from the surface of the work table in the world coordinate system. Z aveW is the world coordinate system of each point of the tracking target object existing within a predetermined range (for example, 150 mm) along the Yw axis direction from the tip of the object region in the Yw axis direction, that is, the tip of the tracking target object. The average value of the height from the surface of the work table is shown. Z surface W is the average value in the Xw-axis direction and the Yw-axis direction of each point in the object region that is within a predetermined range (for example, 150 mm) along the Yw-axis direction from the tip in the Yw-axis direction of the object region. This represents the height of the projection plane (for example, the surface of the work target object) in the average value. Α and β are constants, for example, α = 1.2 and β = 128.

撮像時における、投影面から実際の追跡対象物体までの高さに応じて、投影時における、プロジェクタ13により投影される追跡対象物体の像の色または輝度を変えることで、ユーザは、撮像時における実際の追跡対象物体の高さを認知することが容易となる。そのため、ユーザは、追跡対象物体の像に基づいて、追跡対象物体が、投影面上にある物に触れているか否か、あるいは、追跡対象物体が空中にあるのか否かを識別することが容易となる。   By changing the color or brightness of the image of the tracking target object projected by the projector 13 at the time of projection according to the height from the projection surface to the actual tracking target object at the time of imaging, the user can It becomes easy to recognize the actual height of the tracking target object. Therefore, the user can easily identify whether the tracking target object touches an object on the projection plane or whether the tracking target object is in the air based on the image of the tracking target object. It becomes.

さらに、投影制御部26は、撮像期間中において何れかの把持対象物体が把持されている期間に対応する、投影期間中の一部の期間において、その把持対象物体に対応するプロジェクタ13の表示面上の第2の表示領域に、その把持対象物体を示す像を表示させる。把持対象物体を示す像として、例えば、投影制御部26は、記憶部14に記憶されている把持物体画像を利用する。これにより、投影面に、その把持対象物体の像が投影される。さらに、投影制御部26は、第2の表示領域から所定方向に所定のオフセットだけ離れた位置に、把持対象物体が把持されている状態であることを表す情報、例えば、「使用中」との文字列を表示させる。これにより、投影面に、その情報が投影される。   Furthermore, the projection control unit 26 displays the display surface of the projector 13 corresponding to the gripping target object in a part of the projection period corresponding to the period during which any gripping target object is gripped during the imaging period. An image indicating the object to be grasped is displayed in the upper second display area. For example, the projection control unit 26 uses a gripping object image stored in the storage unit 14 as an image indicating the gripping target object. Thereby, the image of the object to be grasped is projected on the projection surface. Further, the projection control unit 26 is information indicating that the gripping target object is being gripped at a position away from the second display area by a predetermined offset in a predetermined direction, for example, “in use”. Display a string. Thereby, the information is projected on the projection surface.

図9(a)は、何れの把持対象物体も把持されていない場合における、投影面の模式図である。一方、図9(b)は、何れかの把持対象物体が追跡対象物体により把持されている場合における、投影面の模式図である。図9(a)に示されるように、何れの把持対象物体も把持されていない場合には、投影面900には、追跡対象物体の像901のみが投影される。一方、図9(b)に示されるように、何れかの把持対象物体が追跡対象物体により把持されている場合には、投影面900には、追跡対象物体の像901だけでなく、把持されている把持対象物体を示す像902も投影される。この例では、追跡対象物体の像901と把持対象物体を示す像902とが互いに異なる位置に投影される。特に、その把持対象物体の使用中では、把持対象物体を示す像902が投影される、把持物体領域と追跡対象物体の像901とは重ならない。そのため、把持対象物体を示す像902の視認性が向上する。さらに、把持対象物体の像902から所定距離の位置に、「使用中」との文字列903が投影されるので、ユーザは、把持されている把持対象物体を容易に特定できる。   FIG. 9A is a schematic diagram of the projection plane when no gripping target object is gripped. On the other hand, FIG. 9B is a schematic diagram of the projection plane when any gripping target object is gripped by the tracking target object. As shown in FIG. 9A, when no gripping target object is gripped, only the image 901 of the tracking target object is projected onto the projection plane 900. On the other hand, as shown in FIG. 9B, when any gripping target object is gripped by the tracking target object, not only the tracking target object image 901 but also the gripping target object is gripped. An image 902 indicating the gripping target object is also projected. In this example, an image 901 of the tracking target object and an image 902 indicating the gripping target object are projected at different positions. In particular, during use of the gripping target object, the gripping object region and the tracking target object image 901 on which the image 902 indicating the gripping target object is projected do not overlap. Therefore, the visibility of the image 902 indicating the gripping target object is improved. Further, since the character string 903 “in use” is projected at a position a predetermined distance from the image 902 of the gripping target object, the user can easily identify the gripping target object being gripped.

図10は、制御部15により実行される投影処理の動作フローチャートである。   FIG. 10 is an operation flowchart of the projection processing executed by the control unit 15.

把持物体領域設定部20は、把持対象物体ごとに、把持対象物体を含む把持物体領域を世界座標系のXwYw平面に設定するとともに、把持物体領域内の各点の作業台表面からの高さを算出する(ステップS201)。   The gripping object region setting unit 20 sets the gripping object region including the gripping target object to the XwYw plane of the world coordinate system for each gripping target object, and sets the height of each point in the gripping object region from the work table surface. Calculate (step S201).

また把持物体領域設定部20は、把持対象物体ごとに、把持物体領域に対応する、カメラ12により得られた画像上の領域を、把持対象物体の像としてその画像から切り出して、記憶部14に保存する(ステップS202)。   In addition, for each gripping target object, the gripping object region setting unit 20 cuts out the region on the image obtained by the camera 12 corresponding to the gripping object region from the image as the gripping target object image, and stores it in the storage unit 14. Save (step S202).

物体領域検出部21は、撮影期間中に得られた距離センサ11から得られた各距離画像上で追跡対象物体が写っている物体領域を検出する(ステップS203)。そして物体領域検出部21は、物体領域を実空間位置算出部22へ通知する。   The object region detection unit 21 detects an object region in which the tracking target object is shown on each distance image obtained from the distance sensor 11 obtained during the photographing period (step S203). Then, the object region detection unit 21 notifies the real space position calculation unit 22 of the object region.

実空間位置算出部22は、距離画像ごとに、物体領域内の各画素について、その画素に写っている追跡対象物体の点の世界座標系における座標を算出することで、追跡対象物体の実空間における位置を算出する(ステップS204)。そして実空間位置算出部22は、物体領域に対応する追跡対象物体の各点の世界座標系での座標を追跡部23及び表示領域算出部25へ通知する。   The real space position calculation unit 22 calculates the coordinates in the world coordinate system of the point of the tracking target object shown in the pixel for each pixel in the object region for each distance image, so that the real space of the tracking target object is calculated. The position at is calculated (step S204). Then, the real space position calculation unit 22 notifies the tracking unit 23 and the display region calculation unit 25 of the coordinates in the world coordinate system of each point of the tracking target object corresponding to the object region.

追跡部23は、撮影期間中の各距離画像についての追跡対象物体の実空間での位置から、追跡対象物体の実空間での位置の変化の軌跡を表す軌跡データを生成する(ステップS205)。そして追跡部23は、軌跡データを記憶部14に保存する。   The tracking unit 23 generates trajectory data representing a trajectory of a change in the position of the tracking target object in the real space from the position of the tracking target object in the real space for each distance image during the imaging period (step S205). The tracking unit 23 stores the trajectory data in the storage unit 14.

把持判定部24は、軌跡データ、把持物体領域及び把持物体領域内の各点の高さに基づいて、把持対象物体ごとに、その把持対象物体が追跡対象物体に把持されている期間を特定する(ステップS206)。   The gripping determination unit 24 specifies a period during which the gripping target object is gripped by the tracking target object for each gripping target object based on the trajectory data, the gripping object region, and the height of each point in the gripping object region. (Step S206).

表示領域算出部25は、撮像期間中に得られた各距離画像について、その距離画像から検出された追跡対象物体の各点について、その点の世界座標系での作業台の表面からの高さを投影面の高さに置換する。そして表示領域算出部25は、撮像期間中に得られた各距離画像について、その距離画像から検出された追跡対象物体の各点に対応するプロジェクタ13の表示面上の対応画素の座標を算出することで、表示面上の表示領域を算出する(ステップS207)。   For each distance image obtained during the imaging period, the display area calculation unit 25 determines, for each point of the tracking target object detected from the distance image, the height of the point from the surface of the work table in the world coordinate system. Is replaced with the height of the projection plane. Then, for each distance image obtained during the imaging period, the display area calculation unit 25 calculates the coordinates of the corresponding pixel on the display surface of the projector 13 corresponding to each point of the tracking target object detected from the distance image. Thus, the display area on the display surface is calculated (step S207).

さらに、表示領域算出部25は、把持対象物体が追跡対象物体により把持されている期間中において、その把持対象物体の把持物体領域に対応するプロジェクタ13の表示面上の第2の表示領域を算出する(ステップS208)。そして表示領域算出部25は、表示領域及び第2の表示領域を投影制御部26へ通知する。   Further, the display area calculation unit 25 calculates a second display area on the display surface of the projector 13 corresponding to the gripping object area of the gripping target object during the period in which the gripping target object is gripped by the tracking target object. (Step S208). Then, the display area calculation unit 25 notifies the projection control unit 26 of the display area and the second display area.

投影制御部26は、プロジェクタ13の表示面上の表示領域内の各画素について、その画素の色または輝度を、その画素に対応する追跡対象物体の点の投影面からの高さに応じた値に設定する(ステップS209)。そして投影制御部26は、表示領域内の各画素の色または輝度が設定した値となるように、追跡対象物体の像をプロジェクタ13の表示面に表示させることで、追跡対象物体の像を投影面に投影する(ステップS210)。さらに、投影制御部26は、撮影期間中における、把持対象物体が把持されている期間に対応する、投影期間中の期間において、プロジェクタ13の表示面の第2の表示領域に、その把持対象物体を示す像を表示させる。また投影制御部26は、第2の表示領域から所定距離の位置に「使用中」などの文字列を表示する。これにより、投影制御部26は、プロジェクタ13に、把持対象物体を示す像及びその文字列を投影面に投影させる(ステップS211)。そして制御部15は、投影処理を終了する。なお、制御部15は、撮像期間においては距離画像をその撮影時刻と関連付けて記憶部14に保存し、投影期間において、ステップS201〜S206の処理も実行してもよい。   For each pixel in the display area on the display surface of the projector 13, the projection control unit 26 sets the color or luminance of the pixel according to the height of the point of the tracking target object corresponding to the pixel from the projection surface. (Step S209). Then, the projection control unit 26 projects the image of the tracking target object by displaying the image of the tracking target object on the display surface of the projector 13 so that the color or luminance of each pixel in the display area becomes a set value. Projecting onto a surface (step S210). Furthermore, the projection control unit 26 applies the gripping target object to the second display area of the display surface of the projector 13 during the projection period corresponding to the period during which the gripping target object is gripped. An image showing is displayed. The projection control unit 26 displays a character string such as “in use” at a position a predetermined distance from the second display area. Thereby, the projection control unit 26 causes the projector 13 to project an image indicating the object to be grasped and a character string thereof onto the projection plane (step S211). Then, the control unit 15 ends the projection process. Note that the control unit 15 may store the distance image in the storage unit 14 in association with the shooting time during the imaging period, and may also execute the processes of steps S201 to S206 during the projection period.

以上に説明してきたように、この投影装置は、撮像期間中に得られた各距離画像から、追跡対象物体の実空間での位置をもとめる。そしてこの投影装置は、実空間における追跡対象物体の軌跡が把持物体領域を通過した前後での、把持物体領域内の物体の作業台表面からの高さの変化により、把持対象物体が追跡対象物体により把持されているか否かを判定する。そしてこの投影装置は、撮影期間中の把持対象物体が追跡対象物体により把持されている期間に対応する、投影期間中の期間において、把持対象物体が載置されていた元の位置に把持対象物体を示す像を投影する。これにより、追跡対象物体により把持されている把持対象物体を示す像が、作業対象物体及び追跡対象物体と重ならないように投影されるので、投影装置は、その把持対象物体の像の視認性を向上できる。   As described above, the projection apparatus obtains the position of the tracking target object in the real space from each distance image obtained during the imaging period. The projection apparatus detects the object to be tracked by the change of the height of the object in the grasped object area from the surface of the work table before and after the locus of the object to be tracked in the real space passes through the grasped object area. It is determined whether or not it is gripped. Then, the projection apparatus has the gripping target object at the original position where the gripping target object was placed in the period during the projection period corresponding to the period during which the gripping target object is gripped by the tracking target object. An image showing is projected. As a result, the image indicating the gripping target object gripped by the tracking target object is projected so as not to overlap the work target object and the tracking target object, so that the projection device increases the visibility of the image of the gripping target object. Can be improved.

なお、変形例によれば、投影装置は、把持対象物体の像を投影する際に、投影面上の領域に把持対象物体または他の物体が存在するか否かを判定してもよい。そして投影装置は、その判定結果に応じて、把持対象物体を示す像の投影位置を変更したり、把持物体領域を囲む枠を、把持物体を示す像として表示させてもよい。   According to the modification, the projection apparatus may determine whether or not the grip target object or another object exists in the region on the projection surface when projecting the image of the grip target object. The projection device may change the projection position of the image indicating the gripping target object or display a frame surrounding the gripping object region as an image indicating the gripping object according to the determination result.

図11は、この変形例による、制御部35の機能ブロック図である。制御部35は、把持物体領域設定部20と、物体領域検出部21と、実空間位置算出部22と、追跡部23と、把持判定部24と、表示領域算出部25と、投影制御部26と、特徴抽出部27と、照合部28とを有する。
制御部35が有するこれらの各部は、例えば、制御部35が有するプロセッサ上で実行されるコンピュータプログラムによって実現される機能モジュールとして実装される。あるいは、これらの各部の機能を実現する一つまたは複数の集積回路が、制御部35とは別個に投影装置1に実装されてもよい。
FIG. 11 is a functional block diagram of the control unit 35 according to this modification. The control unit 35 includes a gripping object region setting unit 20, an object region detection unit 21, a real space position calculation unit 22, a tracking unit 23, a gripping determination unit 24, a display region calculation unit 25, and a projection control unit 26. And a feature extraction unit 27 and a collation unit 28.
Each of these units included in the control unit 35 is implemented as a functional module realized by a computer program executed on a processor included in the control unit 35, for example. Alternatively, one or a plurality of integrated circuits that realize the functions of these units may be mounted on the projection apparatus 1 separately from the control unit 35.

この変形例による制御部35は、上記の実施形態による制御部15と比較して、特徴抽出部27及び照合部28を有する点と、投影制御部26の処理の一部が異なる。そこで以下では、投影制御部26、特徴抽出部27、照合部28及びその関連部分について説明する。投影装置のその他の構成要素については、上記の実施形態における対応する構成要素の説明を参照されたい。   The control unit 35 according to this modified example is different from the control unit 15 according to the above-described embodiment in that it includes a feature extraction unit 27 and a collation unit 28 and a part of the processing of the projection control unit 26. Therefore, hereinafter, the projection control unit 26, the feature extraction unit 27, the collation unit 28, and related parts will be described. For other components of the projection apparatus, refer to the description of the corresponding components in the above embodiment.

特徴抽出部27は、撮影期間中において、各把持対象物体が作業台の表面に載置されているときにカメラ12により得られた画像または距離センサ11により得られた距離画像から、各把持対象物体の特徴量を抽出する。例えば、特徴抽出部27は、特徴量として、距離画像から把持対象物体が写っている領域として検出された候補領域に含まれる画素の数、その候補領域の長手方向の長さ、または、その候補領域における、作業台の表面からの高さの分布を算出する。あるいは、特徴抽出部27は、特徴量として、把持物体領域に対応する画像上の領域に含まれる各画素について、RGB表色系の値からHLS表色系の値に変換し、色相の値ごとの分布を求めてもよい。あるいはまた、特徴抽出部27は、把持物体領域に対応する画像上の領域そのものを特徴量としてもよい。また特徴抽出部27は、複数の特徴量を算出してもよい。そして特徴抽出部27は、求めた特徴量を、把持対象物体を識別するための識別情報(例えば、上記のObjectNum)とともに、記憶部14に保存する。なお、以下では、便宜上、撮影期間中に得られた把持対象物体の特徴量を、登録特徴量と呼ぶ。   The feature extraction unit 27 detects each gripping target from an image obtained by the camera 12 or a distance image obtained by the distance sensor 11 when each gripping target object is placed on the surface of the workbench during the shooting period. Extract object features. For example, the feature extraction unit 27 uses, as the feature amount, the number of pixels included in the candidate area detected as the area in which the gripping target object is captured from the distance image, the length of the candidate area in the longitudinal direction, or the candidate The height distribution from the surface of the work table in the area is calculated. Alternatively, the feature extraction unit 27 converts the RGB color system value from the RGB color system value to the HLS color system value for each pixel included in the region on the image corresponding to the grasped object region as the feature value, and each hue value. May be obtained. Alternatively, the feature extraction unit 27 may use a region on the image itself corresponding to the grasped object region as a feature amount. The feature extraction unit 27 may calculate a plurality of feature amounts. Then, the feature extraction unit 27 stores the obtained feature amount in the storage unit 14 together with identification information (for example, the above ObjectNum) for identifying the gripping target object. In the following, for the sake of convenience, the feature amount of the gripping target object obtained during the shooting period is referred to as a registered feature amount.

さらに、特徴抽出部27は、追跡対象物体により把持されている把持対象物体の像を投影する際、距離センサ11により得られた距離画像、あるいはカメラ12により得られた画像から、その把持対象物体に対応する把持物体領域から上記と同様の特徴量を算出する。そして特徴抽出部27は、求めた特徴量を照合部28へわたす。なお、以下では、便宜上、追跡対象物体により把持されている把持対象物体を示す像を投影する際に得られた把持対象物体の特徴量を、照合用特徴量と呼ぶ。   Furthermore, when projecting an image of the gripping target object gripped by the tracking target object, the feature extraction unit 27 uses the gripping target object from the distance image obtained by the distance sensor 11 or the image obtained by the camera 12. The feature amount similar to the above is calculated from the gripped object region corresponding to. Then, the feature extraction unit 27 passes the obtained feature amount to the collation unit 28. Hereinafter, for convenience, the feature amount of the gripping target object obtained when projecting an image indicating the gripping target object gripped by the tracking target object is referred to as a matching feature amount.

照合部28は、投影期間中において、追跡対象物体により把持されている把持対象物体の像を投影するときに、その把持対象物体に対応する把持物体領域に物体が存在するか否かを判定する。例えば、照合部28は、把持物体領域に対応する距離画像上の領域において、作業台表面からの高さが所定値(例えば、1cm〜2cm)以上となる画素を抽出する。そして照合部28は、抽出した画素の数が所定数(例えば、把持物体領域に対応する距離画像上の領域に含まれる画素数の1/4〜1/2)以上である場合、その把持物体領域に物体が存在すると判定する。なお、把持物体領域に対応する距離画像上の領域は、(1)式及び(2)式の逆変換を、把持物体領域の各コーナーに対応する点に適用することで求められる。   The collation unit 28 determines whether or not an object exists in the gripping object region corresponding to the gripping target object when projecting an image of the gripping target object gripped by the tracking target object during the projection period. . For example, the collation unit 28 extracts pixels whose height from the work table surface is a predetermined value (for example, 1 cm to 2 cm) or more in the area on the distance image corresponding to the grasped object area. When the number of extracted pixels is equal to or greater than a predetermined number (for example, 1/4 to 1/2 of the number of pixels included in the region on the distance image corresponding to the gripping object region), the matching unit 28 It is determined that an object exists in the area. Note that the region on the distance image corresponding to the gripping object region is obtained by applying the inverse transformations of the equations (1) and (2) to the points corresponding to the respective corners of the gripping object region.

照合部28は、把持物体領域内に物体が存在すると判定した場合、その把持対象物体についての照合用特徴量を、その把持対象物体についての登録特徴量と照合する。そして照合部28は、照合用特徴量と登録特徴量の差が所定の許容範囲内である場合、把持物体領域内に存在する物体が、追跡対象物体により把持されている把持対象物体と同じであると判定する。例えば、各特徴量が把持対象物体の画像である場合、照合部28は、その二つの把持対象物体の画像間のパターンマッチングにより正規化相互相関値を算出する。そして照合部28は、正規化相互相関値が所定の閾値以上である場合、把持物体領域内に存在する物体が、追跡対象物体により把持されている把持対象物体と同じであると判定してもよい。   When the collation unit 28 determines that an object exists in the gripping object region, the collation feature 28 collates the feature value for collation for the gripping target object with the registered feature amount for the gripping target object. When the difference between the matching feature value and the registered feature value is within a predetermined allowable range, the matching unit 28 determines that the object existing in the gripping object region is the same as the gripping target object gripped by the tracking target object. Judge that there is. For example, when each feature amount is an image of a gripping target object, the matching unit 28 calculates a normalized cross-correlation value by pattern matching between the images of the two gripping target objects. If the normalized cross-correlation value is equal to or greater than a predetermined threshold, the matching unit 28 determines that the object existing in the gripping object region is the same as the gripping target object gripped by the tracking target object. Good.

照合部28は、把持物体領域内に物体が存在するか否かの判定結果、及び、把持物体領域内に存在する物体が追跡対象物体により把持されている把持対象物体と同じか否かの判定結果を投影制御部26へ通知する。   The collation unit 28 determines whether or not an object is present in the gripping object area, and whether or not the object present in the gripping object area is the same as the gripping target object gripped by the tracking target object The result is notified to the projection control unit 26.

投影制御部26は、投影期間中において、追跡対象物体により把持されている把持対象物体の像を投影するときに、その把持対象物体に対応する把持物体領域内に物体が存在しなければ、上記の実施形態と同様に、把持物体領域に、把持対象物体の像を投影する。   When projecting an image of a gripping target object that is gripped by the tracking target object during the projection period, the projection control unit 26, if no object exists in the gripping object region corresponding to the gripping target object, Similar to the embodiment, an image of a gripping target object is projected onto the gripping object region.

一方、その把持対象物体に対応する把持物体領域内に物体が存在し、かつ、その物体が追跡対象物体により把持されている把持対象物体と異なれば、投影制御部26は、把持対象物体の像の投影位置を、把持物体領域から外れた位置までずらす。そのために、投影制御部26は、例えば、把持物体領域に対応する第2の表示領域を、水平方向または垂直方向に沿ってその第2の表示領域の長さだけシフトする。   On the other hand, if an object exists in the gripping object region corresponding to the gripping target object and the object is different from the gripping target object gripped by the tracking target object, the projection control unit 26 displays the image of the gripping target object. Is shifted to a position deviating from the gripping object region. Therefore, for example, the projection control unit 26 shifts the second display area corresponding to the grasped object area by the length of the second display area along the horizontal direction or the vertical direction.

また、その把持対象物体に対応する把持物体領域内に物体が存在し、かつ、その物体が追跡対象物体により把持されている把持対象物体と同一であれば、投影制御部26は、把持物体領域の輪郭に沿った枠を投影面に投影する。   If the object exists in the gripping object area corresponding to the gripping target object and the object is the same as the gripping target object gripped by the tracking target object, the projection control unit 26 Project a frame along the outline of the projection onto the projection plane.

図12(a)は、把持物体領域に物体が存在しない場合における、投影面の模式図である。図12(b)は、把持物体領域に、把持されている把持対象物体と異なる物体が存在する場合における、投影面の模式図である。図12(c)は、把持物体領域に、把持されている把持対象物体と同じ把持対象物体が存在する場合における、投影面の模式図である。   FIG. 12A is a schematic diagram of the projection plane when no object is present in the gripping object region. FIG. 12B is a schematic diagram of the projection plane when an object different from the gripping target object being gripped exists in the gripping object region. FIG. 12C is a schematic diagram of the projection plane when the same gripping target object as the gripping target object being gripped exists in the gripping object region.

図12(a)に示されるように、把持物体領域1200に物体が存在しない場合には、把持物体領域1200に、把持されている把持対象物体を示す像1201が投影される。また、図12(b)に示されるように、把持物体領域1200に、把持されている把持対象物体と異なる物体1202が存在する場合には、把持されている把持対象物体を示す像1201は、把持物体領域1200から水平方向にシフトした位置に投影される。そして図12(c)に示されるように、把持物体領域1200に、把持されている把持対象物体と同じ把持対象物体1203が存在する場合には、把持物体領域1200の枠線1204が投影される。   As shown in FIG. 12A, when no object exists in the gripping object region 1200, an image 1201 indicating the gripping target object being gripped is projected onto the gripping object region 1200. Also, as shown in FIG. 12B, when an object 1202 that is different from the gripped target object is present in the gripped object region 1200, an image 1201 indicating the gripped target object is The image is projected at a position shifted from the gripping object region 1200 in the horizontal direction. Then, as shown in FIG. 12C, when the grip target object 1203 is the same as the grip target object being gripped, the frame line 1204 of the grip object area 1200 is projected. .

このように、この変形例では、投影時における、把持物体領域の物体の有無、及び、その物体の種類に応じて、把持対象物体を示す像の投影位置または把持物体を示す像の種類が変更される。そのため、投影装置は、投影時において、把持物体領域内に何らかの物体が存在しても、把持対象物体を示す像の視認性を向上できる。   As described above, in this modification, the projection position of the image indicating the gripping target object or the type of image indicating the gripping object is changed according to the presence or absence of the object in the gripping object region and the type of the object at the time of projection. Is done. Therefore, the projection apparatus can improve the visibility of an image indicating the gripping target object even when some object exists in the gripping object region during projection.

なお、把持対象物体は、作業対象物体に組み付けられる部品であってもよい。この場合には、把持対象物体は、追跡対象物体により一旦把持されると、元の把持物体領域には戻されず、作業対象物体上に移動されることになる。そこで他の変形例によれば、把持判定部24は、一旦、何れかの把持対象物体が追跡対象物体により把持されたと判定すると、それ以降、軌跡データに基づいて、追跡対象物体の位置と作業対象物体とが重なる位置を特定する。なお、作業対象物体の実空間での位置及び範囲は、予め記憶部14に保存される。そして把持判定部24は、特定した位置のそれぞれについて、追跡対象物体が通過する前の高さに対して、通過した後の高さが、把持対象物体の高さに相当する所定値以上高くなる場合、把持対象物体がその位置に組み付けられたと判定してもよい。この場合、把持判定部24は、追跡対象物体がその特定された位置を通過した以降、その把持対象物体は追跡対象物体により把持されていないと判定する。そして投影制御部26は、プロジェクタ13により、把持対象物体が組みつけられた位置に、把持対象物体の像を投影させてもよい。   The gripping target object may be a part that is assembled to the work target object. In this case, once the gripping target object is gripped by the tracking target object, the gripping target object is not returned to the original gripping object area but is moved onto the work target object. Therefore, according to another modification, once the gripping determination unit 24 determines that any one of the gripping target objects is gripped by the tracking target object, thereafter, based on the trajectory data, the position and work of the tracking target object are determined. The position where the target object overlaps is specified. Note that the position and range of the work target object in the real space are stored in the storage unit 14 in advance. Then, the gripping determination unit 24 increases the height after passing through a predetermined value corresponding to the height of the gripping target object with respect to the height before the tracking target object passes through at each specified position. In this case, it may be determined that the gripping target object is assembled at the position. In this case, after the tracking target object passes through the specified position, the grip determination unit 24 determines that the grip target object is not gripped by the tracking target object. Then, the projection control unit 26 may cause the projector 13 to project an image of the gripping target object at a position where the gripping target object is assembled.

さらに他の変形例によれば、投影装置は、撮像期間において、把持判定部24が何れかの把持対象物体を追跡対象物体が把持したと判定した直前においてカメラ12により得られた画像から、把持物体画像を生成してもよい。この場合、制御部15は、把持物体領域設定部20と同様の処理を行って、把持されたと判定された把持対象物体についての把持物体領域に対応する画像上の領域を特定し、その領域を画像から切り出すことで、把持物体画像を生成すればよい。   According to still another modified example, the projection apparatus performs a gripping operation from an image obtained by the camera 12 immediately before the gripping determination unit 24 determines that any tracking target object is gripped during the imaging period. An object image may be generated. In this case, the control unit 15 performs the same processing as that of the gripping object region setting unit 20, specifies the region on the image corresponding to the gripping object region for the gripping target object determined to be gripped, and determines the region. A grasped object image may be generated by cutting out from the image.

さらに他の変形例によれば、投影装置は、撮像期間中の何れかの時点で追跡対象物体により把持された把持対象物体について、投影期間中、把持対象物体の像を常に投影してもよい。この場合には、投影制御部26は、フラグGrabbed()が何れかの時点でTrueとなる把持対象物体について、投影期間中、プロジェクタ13の表示面上の第2の表示領域にその把持対象物体を示す像を表示させればよい。なお、この変形例でも、投影制御部26は、把持対象物体が追跡対象物体に把持されている期間に対応する投影期間中の期間に限り、プロジェクタ13に、「使用中」といった把持状態を表す文字列を投影させてもよい。   According to still another modification, the projection apparatus may always project an image of the gripping target object during the projection period for the gripping target object gripped by the tracking target object at any time during the imaging period. . In this case, the projection control unit 26 determines that the grip target object whose flag Grabbed () is True at any point in the second display area on the display surface of the projector 13 during the projection period. It is sufficient to display an image indicating In this modification as well, the projection control unit 26 indicates the gripping state such as “in use” to the projector 13 only in the period during the projection period corresponding to the period in which the gripping target object is gripped by the tracking target object. A character string may be projected.

ここに挙げられた全ての例及び特定の用語は、読者が、本発明及び当該技術の促進に対する本発明者により寄与された概念を理解することを助ける、教示的な目的において意図されたものであり、本発明の優位性及び劣等性を示すことに関する、本明細書の如何なる例の構成、そのような特定の挙げられた例及び条件に限定しないように解釈されるべきものである。本発明の実施形態は詳細に説明されているが、本発明の精神及び範囲から外れることなく、様々な変更、置換及び修正をこれに加えることが可能であることを理解されたい。   All examples and specific terms listed herein are intended for instructional purposes to help the reader understand the concepts contributed by the inventor to the present invention and the promotion of the technology. It should be construed that it is not limited to the construction of any example herein, such specific examples and conditions, with respect to showing the superiority and inferiority of the present invention. Although embodiments of the present invention have been described in detail, it should be understood that various changes, substitutions and modifications can be made thereto without departing from the spirit and scope of the present invention.

以上説明した実施形態及びその変形例に関し、更に以下の付記を開示する。
(付記1)
実空間において把持対象物体が含まれる把持物体領域を記憶する記憶部と、
所定の撮像期間中において、距離センサから得た、対象物体と前記距離センサ間の距離を画素値で表した距離画像において、前記対象物体が写る物体領域を検出する物体領域検出部と、
前記距離画像において、前記物体領域内の前記対象物体に対応する各画素について、当該画素に写る前記対象物体の実空間での位置を算出する実空間位置算出部と、
前記距離画像に対応する、前記対象物体の実空間での位置に基づいて、前記対象物体の実空間の軌跡を表す軌跡データを生成する追跡部と、
前記把持物体領域内の前記把持対象物体の高さと、前記軌跡が前記把持物体領域を通過した後の物体の高さとの変化に基づいて、前記把持対象物体が前記対象物体により把持されている第1の期間を特定する把持判定部と、
前記第1の期間に対応する、所定の投影期間中の第2の期間において、プロジェクタに、前記対象物体の像と前記対象物体により把持されている前記把持対象物体を示す像とを、投影面上の互いに異なる位置に投影させる投影制御部と、
を有する投影装置。
(付記2)
前記記憶部は、前記把持対象物体が表された画像を前記把持対象物体を示す像として記憶する、付記1に記載の投影装置。
(付記3)
前記把持対象物体が前記対象物体により把持されていない時に得られた前記距離画像から、前記把持対象物体が写る領域を検出し、当該領域内の各点の実空間における位置を算出することで前記把持対象物体に対応する前記把持物体領域を設定し、かつ、カメラにより得られた前記把持対象物体を撮影した画像上で、前記把持物体領域に対応する領域を前記把持対象物体が表された画像とする把持物体領域設定部をさらに有する、付記2に記載の投影装置。
(付記4)
前記対象物体に把持されている前記把持対象物体に対応する前記把持物体領域に対応する、前記プロジェクタの表示面上の位置を算出することで、前記把持対象物体に対応する前記プロジェクタの前記表示面上の表示領域を算出する表示領域算出部をさらに有し、
前記投影制御部は、前記第2の期間において、前記プロジェクタの前記表示面上の前記表示領域に、前記把持対象物体を示す像を表示させることで前記把持対象物体を示す像を前記投影面に投影する、付記2または3に記載の投影装置。
(付記5)
前記記憶部は、前記把持対象物体の特徴を表す登録特徴量をさらに記憶し、
前記第2の期間において、前記距離センサにより得られた前記距離画像上、または、前記カメラにより得られた前記画像上で、前記対象物体に把持されている前記把持対象物体に対応する前記把持物体領域に対応する領域に写っている物体の特徴を表す照合用特徴量を算出する特徴抽出部と、
前記照合用特徴量と前記対象物体に把持されている前記把持対象物体についての前記登録特徴量とを照合して、前記物体と前記対象物体に把持されている前記把持対象物体とが同一か否かを判定する照合部とをさらに有し、
前記投影制御部は、前記物体と前記対象物体に把持されている前記把持対象物体とが同一である場合、前記第2の期間において、前記プロジェクタの前記表示面上の前記表示領域に、前記把持物体領域を囲む枠線の像を前記把持対象物体を示す像として表示させる、付記4に記載の投影装置。
(付記6)
前記投影制御部は、前記物体と前記対象物体に把持されている前記把持対象物体とが異なる場合、前記第2の期間において、前記プロジェクタに、前記把持対象物体の画像を前記物体と重ならない位置に投影させる、付記5に記載の投影装置。
(付記7)
前記照合部は、前記第2の期間において、前記距離センサにより得られた前記距離画像に基づいて前記対象物体に把持されている前記把持対象物体に対応する前記把持物体領域に前記物体が存在するか否かをさらに判定し、
前記投影制御部は、前記把持物体領域に前記物体が存在しない場合、前記プロジェクタに、前記把持対象物体が表された画像を前記把持物体領域に投影させる、付記5または6に記載の投影装置。
(付記8)
前記投影制御部は、前記第2の期間において、前記プロジェクタにより、前記把持対象物体が前記対象物体に把持されていることを示す情報を前記投影面に投影させる、付記1〜7の何れかに記載の投影装置。
(付記9)
所定の撮像期間中において、距離センサから得た、対象物体と前記距離センサ間の距離を画素値で表した距離画像において、前記対象物体が写る物体領域を検出し、
前記距離画像において、前記物体領域内の前記対象物体に対応する各画素について、当該画素に写る前記対象物体の実空間での位置を算出し、
前記距離画像に対応する、前記対象物体の実空間での位置に基づいて、前記対象物体の実空間の軌跡を表す軌跡データを生成し、
実空間において前記把持対象物体が含まれる把持物体領域内の把持対象物体の高さと、前記軌跡が前記把持物体領域を通過した後の物体の高さとの変化に基づいて、前記把持対象物体が前記対象物体により把持されている第1の期間を特定し、
前記第1の期間に対応する、所定の投影期間中の第2の期間において、プロジェクタに、前記対象物体の像と前記対象物体により把持されている前記把持対象物体を示す像とを、投影面上の互いに異なる位置に投影させる、
ことを含む投影方法。
(付記10)
所定の撮像期間中において、距離センサから得た、対象物体と前記距離センサ間の距離を画素値で表した距離画像において、前記対象物体が写る物体領域を検出し、
前記距離画像において、前記物体領域内の前記対象物体に対応する各画素について、当該画素に写る前記対象物体の実空間での位置を算出し、
前記距離画像に対応する、前記対象物体の実空間での位置に基づいて、前記対象物体の実空間の軌跡を表す軌跡データを生成し、
実空間において前記把持対象物体が含まれる把持物体領域内の把持対象物体の高さと、前記軌跡が前記把持物体領域を通過した後の物体の高さとの変化に基づいて、前記把持対象物体が前記対象物体により把持されている第1の期間を特定し、
前記第1の期間に対応する、所定の投影期間中の第2の期間において、プロジェクタに、前記対象物体の像と前記対象物体により把持されている前記把持対象物体を示す像とを、投影面上の互いに異なる位置に投影させる、
ことをコンピュータに実行させるための投影用コンピュータプログラム。
The following supplementary notes are further disclosed regarding the embodiment described above and its modifications.
(Appendix 1)
A storage unit for storing a gripping object region including a gripping target object in real space;
In a predetermined imaging period, an object region detection unit that detects an object region in which the target object is captured in a distance image obtained from a distance sensor and representing a distance between the target object and the distance sensor as a pixel value;
In the distance image, for each pixel corresponding to the target object in the object region, a real space position calculation unit that calculates a position in real space of the target object reflected in the pixel;
A tracking unit that generates trajectory data representing a trajectory of the target object in real space based on a position of the target object in real space corresponding to the distance image;
Based on a change between the height of the gripping target object in the gripping object region and the height of the object after the trajectory passes through the gripping object region, the gripping target object is gripped by the target object. A gripping determination unit that identifies a period of 1;
In a second period of the predetermined projection period corresponding to the first period, an image of the target object and an image indicating the grip target object gripped by the target object are projected to the projector A projection control unit for projecting to different positions above,
A projection apparatus.
(Appendix 2)
The projection apparatus according to attachment 1, wherein the storage unit stores an image representing the gripping target object as an image indicating the gripping target object.
(Appendix 3)
From the distance image obtained when the gripping target object is not gripped by the target object, a region where the gripping target object is captured is detected, and the position of each point in the region is calculated in the real space An image in which the gripping target object is represented on the image obtained by setting the gripping object region corresponding to the gripping target object and capturing the gripping target object obtained by the camera. The projection apparatus according to attachment 2, further comprising: a gripping object region setting unit.
(Appendix 4)
The display surface of the projector corresponding to the gripping target object is calculated by calculating a position on the display surface of the projector corresponding to the gripping object region corresponding to the gripping target object gripped by the target object. It further has a display area calculation unit for calculating the upper display area,
The projection control unit displays an image indicating the gripping target object on the projection plane by displaying an image indicating the gripping target object in the display area on the display surface of the projector in the second period. The projection apparatus according to appendix 2 or 3, which projects.
(Appendix 5)
The storage unit further stores a registered feature amount representing a feature of the gripping object,
The gripping object corresponding to the gripping target object gripped by the target object on the distance image obtained by the distance sensor or on the image obtained by the camera in the second period A feature extraction unit that calculates a feature value for matching that represents a feature of an object reflected in an area corresponding to the area;
Whether the object and the gripping target object gripped by the target object are the same by comparing the matching feature amount with the registered feature amount of the gripping target object gripped by the target object And a verification unit for determining whether or not
When the object and the object to be gripped held by the target object are the same, the projection control unit is configured to hold the grip in the display area on the display surface of the projector in the second period. The projection apparatus according to appendix 4, wherein an image of a frame line surrounding the object region is displayed as an image indicating the gripping target object.
(Appendix 6)
When the object and the object to be gripped held by the target object are different from each other, the projection control unit causes the projector to position the image of the object to be gripped so as not to overlap the object in the second period. The projection device according to appendix 5, wherein
(Appendix 7)
The verification unit includes the object in the gripped object region corresponding to the gripping target object gripped by the target object based on the distance image obtained by the distance sensor in the second period. Whether or not
The projection apparatus according to appendix 5 or 6, wherein the projection control unit causes the projector to project an image representing the gripping target object onto the gripping object region when the object does not exist in the gripping object region.
(Appendix 8)
The projection control unit causes the projector to project information indicating that the gripping target object is gripped by the target object on the projection plane by the projector, according to any one of appendices 1 to 7. The projection device described.
(Appendix 9)
During a predetermined imaging period, an object region in which the target object is captured is detected in a distance image obtained from a distance sensor and representing a distance between the target object and the distance sensor as a pixel value;
In the distance image, for each pixel corresponding to the target object in the object region, calculate the position in real space of the target object reflected in the pixel,
Based on the position of the target object in real space corresponding to the distance image, generating trajectory data representing the trajectory of the target object in real space;
Based on the change between the height of the gripping target object in the gripping object region including the gripping target object in real space and the height of the object after the trajectory passes through the gripping object region, the gripping target object is Identify a first period of time being held by the target object;
In a second period of the predetermined projection period corresponding to the first period, an image of the target object and an image indicating the grip target object gripped by the target object are projected to the projector Project to different positions above,
A projection method comprising:
(Appendix 10)
During a predetermined imaging period, an object region in which the target object is captured is detected in a distance image obtained from a distance sensor and representing a distance between the target object and the distance sensor as a pixel value;
In the distance image, for each pixel corresponding to the target object in the object region, calculate the position in real space of the target object reflected in the pixel,
Based on the position of the target object in real space corresponding to the distance image, generating trajectory data representing the trajectory of the target object in real space;
Based on the change between the height of the gripping target object in the gripping object region including the gripping target object in real space and the height of the object after the trajectory passes through the gripping object region, the gripping target object is Identify a first period of time being held by the target object;
In a second period of the predetermined projection period corresponding to the first period, an image of the target object and an image indicating the grip target object gripped by the target object are projected to the projector Project to different positions above,
Projection computer program for causing a computer to execute the above.

1 投影装置
11 距離センサ
12 カメラ
13 プロジェクタ
14 記憶部
15、35 制御部
100 作業台表面
101 追跡対象物体
102 作業対象物体
103 把持対象物体
20 把持物体領域設定部
21 物体領域検出部
22 実空間位置算出部
23 追跡部
24 把持判定部
25 表示領域算出部
26 投影制御部
27 特徴抽出部
28 照合部
DESCRIPTION OF SYMBOLS 1 Projection apparatus 11 Distance sensor 12 Camera 13 Projector 14 Memory | storage part 15,35 Control part 100 Work surface 101 Tracking target object 102 Work target object 103 Grasp target object 20 Grasp object area setting part 21 Object area detection part 22 Real space position calculation 23 Tracking unit 24 Grasping determination unit 25 Display area calculation unit 26 Projection control unit 27 Feature extraction unit 28 Verification unit

Claims (8)

実空間において把持対象物体が含まれる把持物体領域を記憶する記憶部と、
所定の撮像期間中において、距離センサから得た、対象物体と前記距離センサ間の距離を画素値で表した距離画像において、前記対象物体が写る物体領域を検出する物体領域検出部と、
前記距離画像において、前記物体領域内の前記対象物体に対応する各画素について、当該画素に写る前記対象物体の実空間での位置を算出する実空間位置算出部と、
前記距離画像に対応する、前記対象物体の実空間での位置に基づいて、前記対象物体の実空間の軌跡を表す軌跡データを生成する追跡部と、
前記把持物体領域内の前記把持対象物体の高さと、前記軌跡が前記把持物体領域を通過した後の物体の高さとの変化に基づいて、前記把持対象物体が前記対象物体により把持されている第1の期間を特定する把持判定部と、
前記第1の期間に対応する、所定の投影期間中の第2の期間において、プロジェクタに、前記対象物体の像と前記対象物体により把持されている前記把持対象物体を示す像とを、投影面上の互いに異なる位置に投影させる投影制御部と、
を有する投影装置。
A storage unit for storing a gripping object region including a gripping target object in real space;
In a predetermined imaging period, an object region detection unit that detects an object region in which the target object is captured in a distance image obtained from a distance sensor and representing a distance between the target object and the distance sensor as a pixel value;
In the distance image, for each pixel corresponding to the target object in the object region, a real space position calculation unit that calculates a position in real space of the target object reflected in the pixel;
A tracking unit that generates trajectory data representing a trajectory of the target object in real space based on a position of the target object in real space corresponding to the distance image;
Based on a change between the height of the gripping target object in the gripping object region and the height of the object after the trajectory passes through the gripping object region, the gripping target object is gripped by the target object. A gripping determination unit that identifies a period of 1;
In a second period of the predetermined projection period corresponding to the first period, an image of the target object and an image indicating the grip target object gripped by the target object are projected to the projector A projection control unit for projecting to different positions above,
A projection apparatus.
前記記憶部は、前記把持対象物体が表された画像を前記把持対象物体を示す像として記憶する、請求項1に記載の投影装置。   The projection apparatus according to claim 1, wherein the storage unit stores an image representing the gripping target object as an image indicating the gripping target object. 前記把持対象物体が前記対象物体により把持されていない時に得られた前記距離画像から、前記把持対象物体が写る領域を検出し、当該領域内の各点の実空間における位置を算出することで前記把持対象物体に対応する前記把持物体領域を設定し、かつ、カメラにより得られた前記把持対象物体を撮影した画像上で、前記把持物体領域に対応する領域を前記把持対象物体が表された画像とする把持物体領域設定部をさらに有する、請求項2に記載の投影装置。   From the distance image obtained when the gripping target object is not gripped by the target object, a region where the gripping target object is captured is detected, and the position of each point in the region is calculated in the real space An image in which the gripping target object is represented on the image obtained by setting the gripping object region corresponding to the gripping target object and capturing the gripping target object obtained by the camera. The projection apparatus according to claim 2, further comprising a gripping object region setting unit. 前記対象物体に把持されている前記把持対象物体に対応する前記把持物体領域に対応する、前記プロジェクタの表示面上の位置を算出することで、前記把持対象物体に対応する前記プロジェクタの前記表示面上の表示領域を算出する表示領域算出部をさらに有し、
前記投影制御部は、前記第2の期間において、前記プロジェクタの前記表示面上の前記表示領域に、前記把持対象物体を示す像を表示させることで前記把持対象物体を示す像を前記投影面に投影する、請求項2または3に記載の投影装置。
The display surface of the projector corresponding to the gripping target object is calculated by calculating a position on the display surface of the projector corresponding to the gripping object region corresponding to the gripping target object gripped by the target object. It further has a display area calculation unit for calculating the upper display area,
The projection control unit displays an image indicating the gripping target object on the projection plane by displaying an image indicating the gripping target object in the display area on the display surface of the projector in the second period. The projection device according to claim 2, wherein the projection device projects.
前記記憶部は、前記把持対象物体の特徴を表す登録特徴量をさらに記憶し、
前記第2の期間において、前記距離センサにより得られた前記距離画像上、または、前記カメラにより得られた前記画像上で、前記対象物体に把持されている前記把持対象物体に対応する前記把持物体領域に対応する領域に写っている物体の特徴を表す照合用特徴量を算出する特徴抽出部と、
前記照合用特徴量と前記対象物体に把持されている前記把持対象物体についての前記登録特徴量とを照合して、前記物体と前記対象物体に把持されている前記把持対象物体とが同一か否かを判定する照合部とをさらに有し、
前記投影制御部は、前記物体と前記対象物体に把持されている前記把持対象物体とが同一である場合、前記第2の期間において、前記プロジェクタの前記表示面上の前記表示領域に、前記把持物体領域を囲む枠線の像を前記把持対象物体を示す像として表示させる、請求項4に記載の投影装置。
The storage unit further stores a registered feature amount representing a feature of the gripping object,
The gripping object corresponding to the gripping target object gripped by the target object on the distance image obtained by the distance sensor or on the image obtained by the camera in the second period A feature extraction unit that calculates a feature value for matching that represents a feature of an object reflected in an area corresponding to the area;
Whether the object and the gripping target object gripped by the target object are the same by comparing the matching feature amount with the registered feature amount of the gripping target object gripped by the target object And a verification unit for determining whether or not
When the object and the object to be gripped held by the target object are the same, the projection control unit is configured to hold the grip in the display area on the display surface of the projector in the second period. The projection apparatus according to claim 4, wherein an image of a frame line surrounding an object region is displayed as an image indicating the gripping target object.
前記投影制御部は、前記第2の期間において、前記プロジェクタにより、前記把持対象物体が前記対象物体に把持されていることを示す情報を前記投影面に投影させる、請求項1〜5の何れか一項に記載の投影装置。   6. The projection control unit according to claim 1, wherein, in the second period, the projector projects information indicating that the gripping target object is gripped by the target object onto the projection plane. The projection device according to one item. 所定の撮像期間中において、距離センサから得た、対象物体と前記距離センサ間の距離を画素値で表した距離画像において、前記対象物体が写る物体領域を検出し、
前記距離画像において、前記物体領域内の前記対象物体に対応する各画素について、当該画素に写る前記対象物体の実空間での位置を算出し、
前記距離画像に対応する、前記対象物体の実空間での位置に基づいて、前記対象物体の実空間の軌跡を表す軌跡データを生成し、
実空間において前記把持対象物体が含まれる把持物体領域内の把持対象物体の高さと、前記軌跡が前記把持物体領域を通過した後の物体の高さとの変化に基づいて、前記把持対象物体が前記対象物体により把持されている第1の期間を特定し、
前記第1の期間に対応する、所定の投影期間中の第2の期間において、プロジェクタに、前記対象物体の像と前記対象物体により把持されている前記把持対象物体を示す像とを、投影面上の互いに異なる位置に投影させる、
ことを含む投影方法。
During a predetermined imaging period, an object region in which the target object is captured is detected in a distance image obtained from a distance sensor and representing a distance between the target object and the distance sensor as a pixel value;
In the distance image, for each pixel corresponding to the target object in the object region, calculate the position in real space of the target object reflected in the pixel,
Based on the position of the target object in real space corresponding to the distance image, generating trajectory data representing the trajectory of the target object in real space;
Based on the change between the height of the gripping target object in the gripping object region including the gripping target object in real space and the height of the object after the trajectory passes through the gripping object region, the gripping target object is Identify a first period of time being held by the target object;
In a second period of the predetermined projection period corresponding to the first period, an image of the target object and an image indicating the grip target object gripped by the target object are projected to the projector Project to different positions above,
A projection method comprising:
所定の撮像期間中において、距離センサから得た、対象物体と前記距離センサ間の距離を画素値で表した距離画像において、前記対象物体が写る物体領域を検出し、
前記距離画像において、前記物体領域内の前記対象物体に対応する各画素について、当該画素に写る前記対象物体の実空間での位置を算出し、
前記距離画像に対応する、前記対象物体の実空間での位置に基づいて、前記対象物体の実空間の軌跡を表す軌跡データを生成し、
実空間において前記把持対象物体が含まれる把持物体領域内の把持対象物体の高さと、前記軌跡が前記把持物体領域を通過した後の物体の高さとの変化に基づいて、前記把持対象物体が前記対象物体により把持されている第1の期間を特定し、
前記第1の期間に対応する、所定の投影期間中の第2の期間において、プロジェクタに、前記対象物体の像と前記対象物体により把持されている前記把持対象物体を示す像とを、投影面上の互いに異なる位置に投影させる、
ことをコンピュータに実行させるための投影用コンピュータプログラム。
During a predetermined imaging period, an object region in which the target object is captured is detected in a distance image obtained from a distance sensor and representing a distance between the target object and the distance sensor as a pixel value;
In the distance image, for each pixel corresponding to the target object in the object region, calculate the position in real space of the target object reflected in the pixel,
Based on the position of the target object in real space corresponding to the distance image, generating trajectory data representing the trajectory of the target object in real space;
Based on the change between the height of the gripping target object in the gripping object region including the gripping target object in real space and the height of the object after the trajectory passes through the gripping object region, the gripping target object is Identify a first period of time being held by the target object;
In a second period of the predetermined projection period corresponding to the first period, an image of the target object and an image indicating the grip target object gripped by the target object are projected to the projector Project to different positions above,
Projection computer program for causing a computer to execute the above.
JP2015247405A 2015-12-18 2015-12-18 Projection apparatus, projection method, and computer program for projection Active JP6597277B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015247405A JP6597277B2 (en) 2015-12-18 2015-12-18 Projection apparatus, projection method, and computer program for projection

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015247405A JP6597277B2 (en) 2015-12-18 2015-12-18 Projection apparatus, projection method, and computer program for projection

Publications (2)

Publication Number Publication Date
JP2017112565A true JP2017112565A (en) 2017-06-22
JP6597277B2 JP6597277B2 (en) 2019-10-30

Family

ID=59079913

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015247405A Active JP6597277B2 (en) 2015-12-18 2015-12-18 Projection apparatus, projection method, and computer program for projection

Country Status (1)

Country Link
JP (1) JP6597277B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014071498A (en) * 2012-09-27 2014-04-21 Kyocera Corp Display device, control system and control program
JP2014068689A (en) * 2012-09-27 2014-04-21 Kyocera Corp Display device, control system, and control program
JP2014204196A (en) * 2013-04-02 2014-10-27 富士通株式会社 Interactive projector

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014071498A (en) * 2012-09-27 2014-04-21 Kyocera Corp Display device, control system and control program
JP2014068689A (en) * 2012-09-27 2014-04-21 Kyocera Corp Display device, control system, and control program
JP2014204196A (en) * 2013-04-02 2014-10-27 富士通株式会社 Interactive projector

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
後藤 道彦 MICHIHIKO GOTO: "作業空間への教師ビデオ重畳表示によるAR支援システム AR-Based Supporting System by Overlay Display", 画像電子学会誌 第39巻 第5号 THE JOURNAL OF THE INSTITUTE OF IMAGE ELECTRONICS ENGINEERS OF JAP, vol. 第39巻, JPN6019021843, 25 September 2010 (2010-09-25), JP, pages 631 - 643, ISSN: 0004053190 *

Also Published As

Publication number Publication date
JP6597277B2 (en) 2019-10-30

Similar Documents

Publication Publication Date Title
TWI574223B (en) Navigation system using augmented reality technology
US11308347B2 (en) Method of determining a similarity transformation between first and second coordinates of 3D features
CN103189827B (en) Object display apparatus and object displaying method
JP6789624B2 (en) Information processing device, information processing method
JP6645151B2 (en) Projection apparatus, projection method, and computer program for projection
TW201346216A (en) Virtual ruler
CN106020436A (en) Image analyzing apparatus and image analyzing method
JP2016218905A (en) Information processing device, information processing method and program
TW201142745A (en) Information processing apparatus, information processing system, and information processing method
US20170243052A1 (en) Book detection apparatus and book detection method
KR20120072009A (en) Interaction recognition apparatus for multiple user and method thereof
JP2016177491A (en) Input device, fingertip position detection method, and fingertip position detection computer program
JP2018010599A (en) Information processor, panoramic image display method, panoramic image display program
JP6950644B2 (en) Attention target estimation device and attention target estimation method
KR101426378B1 (en) System and Method for Processing Presentation Event Using Depth Information
US20210327160A1 (en) Authoring device, authoring method, and storage medium storing authoring program
KR20110087407A (en) Camera simulation system and localization sensing method using the same
US11989928B2 (en) Image processing system
JP2017147689A (en) Video editing device, video editing method, and computer program for editing video
JP2011002292A (en) Three-dimensional fingertip position detecting method, three-dimensional fingertip position detector, and program
JP2015045919A (en) Image recognition method and robot
CN108896035B (en) Method and equipment for realizing navigation through image information and navigation robot
JP6597277B2 (en) Projection apparatus, projection method, and computer program for projection
TW201324436A (en) Method and system establishing 3D object
JP2017004438A (en) Input device, finger-tip position detection method, and computer program for finger-tip position detection

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180810

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190530

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190611

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190722

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190903

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190916

R150 Certificate of patent or registration of utility model

Ref document number: 6597277

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150